新足迹

 找回密码
 注册

精华好帖回顾

· 浅谈阳台玫瑰盆栽种植技巧——促芽整形篇 (2020-10-14) 时维九月 · (终于写完了! )买房感觉像买白菜一样(后续编)---有PP哟! (2008-8-9) 岁月留下的痕迹
· Tokyo Escape (2011-3-13) athleticfrog · 新衣服们,108楼加网址,116真人23日加新。。 (2008-10-20) wellye
Advertisement
Advertisement
查看: 4182|回复: 26

准备下单macbook pro m4 max + 128GB 内存+ 2TB SSD时候看到价格犹豫了 [复制链接]

发表于 2025-6-28 23:36 |显示全部楼层
此文章由 xxxxyyyy 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 xxxxyyyy 所有!转贴必须注明作者、出处和本声明,并保持内容完整
本帖最后由 xxxxyyyy 于 2025-6-28 23:38 编辑

要8700澳元,快1万刀。

而mac studio 512GB运行内存 + 2TB SSD要16000刀。

过几年1TB - 1.5TB运行内存出来以后,一台顶配mac studio估计可以买一辆全新的车

收入不仅赶不上house上涨速度,连苹果笔记本价格也快赶不上了
Advertisement
Advertisement

发表于 2025-6-29 05:07 |显示全部楼层
此文章由 pikemanz 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 pikemanz 所有!转贴必须注明作者、出处和本声明,并保持内容完整
物价涨,观念也要跟着涨了,不再是很多年钱的价格了

发表于 2025-6-29 15:02 来自手机 |显示全部楼层
此文章由 纳品恩街 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 纳品恩街 所有!转贴必须注明作者、出处和本声明,并保持内容完整
要这么大的内存干啥?

发表于 2025-6-29 15:04 来自手机 |显示全部楼层
此文章由 rayki 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 rayki 所有!转贴必须注明作者、出处和本声明,并保持内容完整
这么大内存真的没用, 尤其AI时代。

发表于 2025-6-29 21:48 |显示全部楼层
此文章由 xxxxyyyy 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 xxxxyyyy 所有!转贴必须注明作者、出处和本声明,并保持内容完整
rayki 发表于 2025-6-29 15:04
这么大内存真的没用, 尤其AI时代。

下面是google AI的回答。是从中国国内和中文考虑。

如果你确实有本地部署满血版DeepSeek 的需求,目前建议的配置是选购512GB 统一内存+1TB SSD,搭载M3 Ultra 芯片的Mac Studio,官网售价74249 元,可以叠加国补、教育优惠、12 期分期等,这可能是目前门槛最低、性价比最高的满血版DeepSeek 本地部署方案

发表于 2025-6-29 23:28 来自手机 |显示全部楼层
此文章由 zn7726 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 zn7726 所有!转贴必须注明作者、出处和本声明,并保持内容完整
xxxxyyyy 发表于 2025-6-29 21:48
下面是google AI的回答。是从中国国内和中文考虑。

如果你确实有本地部署满血版DeepSeek 的需求,目前 ...

google ai都告诉你了 这是最便宜的方案了 你还抱怨啥

另外 真有必要本地部署吗?1万多刀,你拿来充会员用不行吗,一年200美金就够了吧?
Advertisement
Advertisement

发表于 2025-6-30 10:21 |显示全部楼层
此文章由 rayki 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 rayki 所有!转贴必须注明作者、出处和本声明,并保持内容完整
xxxxyyyy 发表于 2025-6-29 21:48
下面是google AI的回答。是从中国国内和中文考虑。

如果你确实有本地部署满血版DeepSeek 的需求,目前 ...

为什么要本地部署啊, 那么多内存说白了就是不停的开pods啊, 一堆。 你自己都不知道那些有用,那些没用,但是你一启动apps就自动给你起来了。
containers世界里面已经一团乱七八糟了,真的没必要最大化本地部署,最小化本地部署即可, 而且那个AI都不好用。
理论上来说只有针对企业内部,可以访问企业内部知识库的这种,还好,但是也有限。
我来问道无余话,云在青天水在瓶

发表于 2025-6-30 12:22 |显示全部楼层
此文章由 vivic2333 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 vivic2333 所有!转贴必须注明作者、出处和本声明,并保持内容完整
除非是公司掏钱搭建自己的系统防止数据外泄啥的,自己玩弄个云服务就行了。

发表于 2025-7-11 23:16 |显示全部楼层
此文章由 xxxxyyyy 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 xxxxyyyy 所有!转贴必须注明作者、出处和本声明,并保持内容完整
本帖最后由 xxxxyyyy 于 2025-7-12 12:38 编辑

当我看到老黄的一张显卡5090要6000刀还要抢的时候,我突然觉得果子的m4 max CPU和GPU共享统一内存好像有点不是那么贵感觉。

m4 max统一内存带宽是500GB/s还是不太够,
m3 ultra也才800GB/s

等到统一内存带宽1000GB/s这样爽了。

估计要等m4 ultra或者m5, m6 max了。

发表于 2025-8-8 09:02 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
蘋果的大概不能運行cuda,如果訪問global memory的速度和訪問gpu l1 cache的速度一樣那就爽了

发表于 2025-8-8 14:05 |显示全部楼层
此文章由 xmessa 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 xmessa 所有!转贴必须注明作者、出处和本声明,并保持内容完整
大语言模型苹果已经是最便宜的了

它的内存是显存
Advertisement
Advertisement

发表于 2026-3-24 04:12 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
你买了吗?

我已拿到RTX 5090,运行RedHatAI/Ministral-3-14B-Instruct-2512-FP8-dynamic速度太棒了

发表于 2026-3-24 05:03 来自手机 |显示全部楼层
此文章由 scoopy 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 scoopy 所有!转贴必须注明作者、出处和本声明,并保持内容完整
我觉得,本地AI能跑就够了,处理下需要保密的任务,其他的任务只能花钱交给大厂的AI去做。
个人如何砸钱自建,也不可能达到大厂的一个机柜的能力,也没有必要。

发表于 2026-3-24 09:15 |显示全部楼层
此文章由 最后发表 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 最后发表 所有!转贴必须注明作者、出处和本声明,并保持内容完整
1T SSD能干啥啊?随便放点东西就满了。

发表于 2026-3-24 09:18 |显示全部楼层
此文章由 wdq2347 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 wdq2347 所有!转贴必须注明作者、出处和本声明,并保持内容完整
xxxxyyyy 发表于 2025-7-12 00:16
当我看到老黄的一张显卡5090要6000刀还要抢的时候,我突然觉得果子的m4 max CPU和GPU共享统一内存好像有点 ...

这取决于你本地部署AI拿来做什么用。如果是纯生产力,比如你是在帮中小型企业养AI chat bot,提供package solution。或者你有算力上的需求拿来赚钱,而且电费基本不用钱的话还是很划算的。如果只是想养电子宠物或者玩安全性堪忧的龙虾,还是算了。
https://shorturl.at/EbECL
/ __|  |  |  |  | |  _ \  | __| |  _ \  | |        /  _  \   /  _  \  | _

发表于 2026-3-24 18:38 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
最后发表 发表于 2026-3-24 10:15
1T SSD能干啥啊?随便放点东西就满了。

是呀,我弄了个8TB,还担心不够,那些AI MODEL太占地方了
Advertisement
Advertisement

发表于 2026-3-24 18:50 来自手机 |显示全部楼层
此文章由 yzh1999 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 yzh1999 所有!转贴必须注明作者、出处和本声明,并保持内容完整
DDD888 发表于 2026-3-24 05:12
你买了吗?

我已拿到RTX 5090,运行RedHatAI/Ministral-3-14B-Instruct-2512-FP8-dynamic速度太棒了 ...

你under utilise了

发表于 2026-3-24 18:59 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整

稍微GPU运行下要5百瓦的电,当然要少用

发表于 2026-3-24 19:16 来自手机 |显示全部楼层
此文章由 yzh1999 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 yzh1999 所有!转贴必须注明作者、出处和本声明,并保持内容完整
DDD888 发表于 2026-3-24 19:59
稍微GPU运行下要5百瓦的电,当然要少用

沉没成本下去了,靠可变成本摊薄了
你32G VRAM可以用更大的模型

发表于 2026-3-25 19:15 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
DDD888 发表于 2026-3-24 19:59
稍微GPU运行下要5百瓦的电,当然要少用

听说全负载RTX 5090长时间运行会烧电源插头,我设置了sudo nvidia-smi -pl 500只允许最多用500瓦

发表于 2026-3-26 02:41 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
zn7726 发表于 2025-6-30 00:28
google ai都告诉你了 这是最便宜的方案了 你还抱怨啥

另外 真有必要本地部署吗?1万多刀,你拿来充会员 ...

如果要claude max 20,那是要一个月付200美元,评论,太贵了
Advertisement
Advertisement

发表于 2026-3-26 02:44 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
DDD888 发表于 2026-3-26 03:41
如果要claude max 20,那是要一个月付200美元,评论,太贵了

如果自己搭建LOCAL AI,可以用UNCENSORED AI MODEL

发表于 2026-3-26 03:37 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
期待AMD能够出DIY的1TB VRAM的CPU

发表于 2026-3-26 03:38 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
rayki 发表于 2025-6-29 16:04
这么大内存真的没用, 尤其AI时代。

当然是运行LOCAL AI MODEL啦

发表于 2026-3-26 06:12 来自手机 |显示全部楼层
此文章由 zn7726 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 zn7726 所有!转贴必须注明作者、出处和本声明,并保持内容完整
DDD888 发表于 2026-3-26 03:41
如果要claude max 20,那是要一个月付200美元,评论,太贵了

你能下载claude模型本地运行吗?如果不能 你这个假设和计算就不成立

发表于 2026-3-26 06:54 来自手机 |显示全部楼层
此文章由 rayki 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 rayki 所有!转贴必须注明作者、出处和本声明,并保持内容完整
DDD888 发表于 2026-3-26 04:38
当然是运行LOCAL AI MODEL啦

local AI 确实有必要了。 我以前一直用ollma离线AI, 后来用公司的,反正token都算公司的了。
我来问道无余话,云在青天水在瓶
Advertisement
Advertisement

发表于 2026-3-26 11:29 |显示全部楼层
此文章由 DDD888 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 DDD888 所有!转贴必须注明作者、出处和本声明,并保持内容完整
rayki 发表于 2026-3-26 07:54
local AI 确实有必要了。 我以前一直用ollma离线AI, 后来用公司的,反正token都算公司的了。  ...

挺好的,如果用自己的,要花電費啦

发表回复

您需要登录后才可以回帖 登录 | 注册

本版积分规则

Advertisement
Advertisement
返回顶部