
1 Kevinyy 2 天前 直接 64G ,得不到的永远在躁动 |
2 taozheju 2 天前 肯定越大越好 |
3 PeiXyJ 2 天前 |
4 andforce 2 天前 via iPhone 兄弟,我告诉你,我的 M1 都上 64G 内存了 |
6 CloudMx 2 天前 64,如果预算更多直接 128 了. |
7 diudiuu 2 天前 48 吧 我 m4 搞得 32 这会用的时候还是有点吃力,主要是上本地模型了,昨天去以旧换新,旧的折算 5000 ,算了讲究用吧 |
9 yifangtongxing28 OP @CloudMx 平台上 128g 的都光了,看了下价格,有货情况 3w5 左右能拿下,预算投入超支了哈哈 |
10 yifangtongxing28 OP @diudiuu 多少 B 的模型?上下文多轮对话能扛得住吗? |
11 chitanda 2 天前 48g 。64g 多出来的 16g 并不能干什么 |
12 fredweili 2 天前 16g m1 pro ,准备换 48g m5 pro ,因为公司只给这个 |
13 comefromweb 2 天前 |
14 stinkytofux 2 天前 64g 吧, 能多用两年. |
15 turing518 2 天前 如果在纠结,那就直接上 64G ,免得以后后悔 |
16 rockddd 2 天前 想用五年肯定越大越好,如果两三年就换那么 48G 更合适,目前 64 也跑不了智商在线的模型 |
17 marvinxtechbot18 PRO 内存多多益善,预算充足情况下,绝对不考虑省这个。 |
18 yhxx 2 天前 看自己现在的电脑日常用了多少 我是 48 足够了 觉得拉满可以多用两年,其实大部分人还没到那两年,就换 M7M8 了 |
19 wombat 2 天前 除非部署模型,不然 48g 足够。 我觉得 64g 部署的模型要体验好,也就 32b 及一下吧? 32b 的话不如用云端的模型 api ,32b 作为 openclaw 、日常使用差点。 |
20 yifangtongxing28 OP @rockddd 模型这个没啥执念,我用 windows 台式机玩了一下,目前还看不出什么设备是本地部署利器,消费级的产品来说的话 |
24 wu67 2 天前 可以但是没必要, 你加钱搞那么多内存, 都够你开各种 API 套餐爽用了, 反正我是觉得 24 够用 32 爽用了. |
25 painter 2 天前 8g 内存的 M1 Air 依然在咔咔 AI Coding |
26 kerwin1874 2 天前 现在 16g 的 m1 pro 本地开发也开始吃力了。 需求是 idea 开 2 个项目,goland 开一个,3-4 个服务,safari 开 10 个标签,然后要 docker 跑 3-4 个容器,还有一堆 electron app ,感觉还是要 64g 心里才有底。 m5 pro 64+1t 看价格是 21k ,不知道同模具的 m2 max/m3 max 大内存版本能压到多少价格? m5 pro 的 cpu 性能感觉进步挺大的。 |
27 night98 2 天前 有条件内存肯定越大越好。 |
28 jaoyina 2 天前 via Android 准备跑大模型吗,不跑 48 也够了。 |
29 yifangtongxing28 OP @jaoyina 不准备啊,笔记本开盖盒盖麻烦 |
30 rlarnsgur 2 天前 之前看过评测,14 寸的磨具 32G 是可以压得住,但是 64G 明显 16 寸更加游刃有余, |
31 coolxll 2 天前 @kerwin1874 #26 m5 pro 64+1t 看价格是 21k 是啥渠道? |
32 bzw875 2 天前 买中配,3 年一换 |
33 diudiuu 2 天前 @yifangtongxing28 跑的 26b 的一个 18g ,最简单的方式就是你看下载的模型大小,直接加就行了,能简单算出来 比如 gemma4:26b 18g ,32g mac 电脑,本身占 11g + 18g ,差不多都在 29g-30g ,再加上推理要用的,之能更大 速度我看下来以只要内存后,出 token 都差别不是很大,我试了一个 gemma4:e4b 9g ,跟上面 18g 都是 25 token/s ,区别不是很大 |
34 kuaner 2 天前 128 不要犹豫,内存只会越来越贵 |
35 kerwin1874 2 天前 @coolxll 淘宝刷到过大概这个价格 |
36 JEFFMEME 2 天前 没必要 64G 邦死 5 年这样的想法,5 年都有新的高度了,或许差价加一点置换新硬件更划算,或者 API 来替代。 需要多少就买多少,两三年即可。 |
37 wanguorui123 2 天前 如果只用 3-5 年 48G 足够了,如果要用 10 年左右肯定买内存更大的 |
38 wetalk 2 天前 M 系列芯片的单核 IPC 差异并不大,性能提升主要源于频率和核心数量的增加。但问题是,即便 CPU 满载,散热能力也往往跟不上。说白了,在核心数相同的情况下,M3 干不了的活,M5 同样干不了。目前真正的使用瓶颈通常不在 CPU ,而是在内存。 |
39 zhuyao 2 天前 有钱就 24G 以上,没钱就咬牙大于 16g 。我这个 16 寸,开多个 idea 内存就红色了 |
40 glpyhster 2 天前 预算充足,能上 64G 就上 64G ,虽然我 M4 Pro 48G 平时使用也没有遇到什么瓶颈的地方。 |
41 xubeiyou 2 天前 有钱就肯定 64 啊 |
42 A9754184529 2 天前 由于需要跑一台 Windows 虚拟机,直接上 64G 内存了。M2 Max ,1T ,有点后悔早知道上 2T 。 |
43 DinnyXu 2 天前 经济没压力就一口气上 64G 的,我这 16G 初代 M1 都用了 5 年多了,经常因为 idea 内存占用过高 |
44 yifangtongxing28 OP @wetalk 专业,有很多 14 寸压不住 max 的例子,其实编码或者各种时候大部分 cpu 都跑的很不满,少数情况,也就一会就过去了,但是内存是刚需 |
45 auroraccc 2 天前 看你喜不喜欢关窗口,我是不喜欢关应用的人。48G 偶尔也会卡,大概 40 个 chrome tab 、Arc 3-6 个 tab 、前端开发服务 2-3 个、QSpace 、VSCode 窗口 3-4 个、XCode 、Codex 、Android Studio 、Warp 、QQ 音乐、Figma 客户端、钉钉。大头主要这些,差不多会变黄。 |
46 AndyLuo 2 天前 via Android 我个人用 mac 就是搭搭 ai 环境,干干文字工作,48g 不是很够,假期自建了一把本地龙虾,因为不想碰 mac 的数据(也没需求)所以自建了个 8g 虚拟机,本地模型+虚拟机+mac 需要的内存 64 个。直接吃满了开始用交换空间。如果没本地跑模型的需求感觉 48g 也够用了 |
47 zsmj1024 2 天前 买了 m3max 64GB+2TB ,推荐 m5pro 64GB+1TB (港版教育优惠,大概 18k ) |
48 yifangtongxing28 OP @zsmj1024 哈哈,我就是犹豫了没买到这批货,才看 m5 的 |
49 version 2 天前 异地组网。m5 air 24g 刚刚好..感觉苹果性价比不高.等真的能上大模型. win+96g+5090 这样省钱些.多台 pve 部署机长期不关机..rdp 目前在 mac 使用非常可以的..都 vibe coding 了.你需要的是长期不关机的电脑 |
50 Keystroke 2 天前 用着 16G 的看到这个帖子惊呆了……你们现在都买那么大的吗?如果不跑大模型,这么大的意义是啥…… |
51 zhouquanbest 2 天前 我选 48 的 多的钱选大点 SSD Mac 的内存压缩其实还可以 48G 你别本地跑太变态的东西 是够的 |
52 JoshTheLegend 2 天前 打算用 5 年,你也只是提到了差价没有提预算,那肯定越多越好啊,说不定两三年后有黑科技开源小模型性能猛涨呢。 |
53 Lemonadeccc 2 天前 64gm1max ,开一堆网页,常年 85%,极少 91%。感觉一般 48 就够用了。然后个人认为端侧模型肯定后面会适配大部分设备的。 |
54 ApmI00 1 天前 曾经 m3 max ,咬牙上了 128G ,龙虾出现前,虽然偶尔也跑本地模型试试手感,但是大部分情况还是空闲 64G 内存,不图别的,看到 swap 为 0 ,就是爽 |
55 yifangtongxing28 OP @zhouquanbest 固态都是 1t 我自己还屯了 2 条 2t 的固态,可以外接 |
56 yifangtongxing28 OP @ApmI00 土豪啊哈哈,目前看 48 和 64 在不跑模型下都算是够用的 |