找回密码
 加入我们
搜索
      
查看: 3789|回复: 8

[装机] 4个mac studio配m2 ultra 192GB内存跑deepseek能有多快?

[复制链接]
发表于 2025-2-6 16:09 | 显示全部楼层 |阅读模式
我看B站有用mac连接跑其他大模型的,跑deepseek 671B能有多快呢?亟需
发表于 2025-2-6 16:12 | 显示全部楼层
m2 ultra 192GB run 70B 都很慢,因为目前 npu 利用不上,纯靠 GPU,上下文大的时候就更慢。推理模型输出量大,每秒没有几十个 token 不可用
 楼主| 发表于 2025-2-6 16:19 | 显示全部楼层
Miner 发表于 2025-2-6 16:12
m2 ultra 192GB run 70B 都很慢,因为目前 npu 利用不上,纯靠 GPU,上下文大的时候就更慢。推理模型输出量 ...

这么垃圾,看来软件适配还是不如cuda。英伟达又太贵,吸血啊
发表于 2025-2-6 16:21 | 显示全部楼层
海口天空 发表于 2025-2-6 16:19
这么垃圾,看来软件适配还是不如cuda。英伟达又太贵,吸血啊

目前离不开英伟达……等 M4 Ultra,以及苹果的 MLX 未来是否能有足够的优化,需要时间
发表于 2025-2-6 16:23 | 显示全部楼层
全民测试开始了。大概1-2周就有各种价位的方案了
发表于 2025-2-6 16:23 | 显示全部楼层
https://x.com/awnihannun/status/1881412271236346233

这个玩法外网还蛮流行的。自己看吧,3bit量化,两台m2 ultra用雷雳网桥连接,exo框架(后端apple mlx),17t。

今年的m4 ultra一定是大杀器。
发表于 2025-2-6 16:24 | 显示全部楼层
正在研究使用Mac Studio 组集群跑deepseek ,我这边有5台闲置M1 Ultra+128GB的Mac Studio
发表于 2025-2-6 16:40 | 显示全部楼层
本帖最后由 hustlhx 于 2025-2-6 17:24 编辑
海口天空 发表于 2025-2-6 16:19
这么垃圾,看来软件适配还是不如cuda。英伟达又太贵,吸血啊


就ai来说,英伟达会比mac贵?mac优势是内存,但算力是真不行,也不便宜啊。m2 ultra 192GB多少钱?
英伟达贵的是显存,mac贵的是算力(金子内存相比之下都显得眉清目秀)
发表于 2025-2-6 17:18 | 显示全部楼层
目前看,能塞啥模型取决于内存大小,推理速度的瓶颈也主要是在内存带宽?
那性价比最高的应该是苏妈把游戏机soc塞满GDDR甚至LPDDR才对
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-22 20:41 , Processed in 0.009148 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表