找回密码
 加入我们
搜索
      
查看: 4964|回复: 61

[装机] Framework发布AMD Ryzen AI MAX+ “Strix Halo” 迷你主机: 4.5L, 最高128GB内存

[复制链接]
发表于 2025-2-26 07:48 来自手机 | 显示全部楼层 |阅读模式
1000004681.jpg

1000004682.jpg

1000004679.jpg

点评

128g版的cpu苏妈怕是单u就要卖8000块  发表于 2025-2-26 11:12
发表于 2025-2-26 07:57 来自手机 | 显示全部楼层
五折吧,下不了手
发表于 2025-2-26 07:58 来自手机 | 显示全部楼层
哈哈哈哈😄这价格快赶上幻x了。。
发表于 2025-2-26 08:01 | 显示全部楼层
感觉还不如等老黄那个5070的迷你“超算”
发表于 2025-2-26 08:34 来自手机 | 显示全部楼层
价格劝退
发表于 2025-2-26 09:27 | 显示全部楼层
这价格略高啊
发表于 2025-2-26 09:43 | 显示全部楼层


可以这样跑671b
发表于 2025-2-26 09:50 | 显示全部楼层
平安是福 发表于 2025-2-26 08:01
感觉还不如等老黄那个5070的迷你“超算”

老黄那迷你超算根本比不上这个
发表于 2025-2-26 09:54 来自手机 | 显示全部楼层
据说这玩意有很强的可扩展性?
发表于 2025-2-26 09:55 | 显示全部楼层
ts02147823 发表于 2025-2-26 09:50
老黄那迷你超算根本比不上这个

老黄的迷你超算好歹是5070呀,这个核显性能最多对标4070

点评

老黄那个是计算卡,跑不了图形,更跑不了游戏  发表于 2025-2-26 11:21
发表于 2025-2-26 09:55 | 显示全部楼层

搞得很像堆叠
发表于 2025-2-26 09:59 | 显示全部楼层
老黄的迷你超算能打游戏么,还是只能ai
发表于 2025-2-26 10:05 来自手机 | 显示全部楼层
ts02147823 发表于 2025-2-26 09:50
老黄那迷你超算根本比不上这个

谁给你的感觉老黄的迷你超算比不上这个的,不谈AI的部分,这东西就算光栅性能也就4060呀

点评

老黄那个是计算卡跑不了游戏  发表于 2025-2-26 11:22
发表于 2025-2-26 10:06 来自手机 | 显示全部楼层
ts02147823 发表于 2025-2-26 09:50
老黄那迷你超算根本比不上这个

单台性能确实打不过,但架不住那个超算有双口200g迈络思网卡啊,多台互联,应该能跑完整版deepseek。官方信息,两台可以直接互联跑400b的模型,要是能用迈络思的交换机互联多台,搞不好就是最便宜的ds完整版平台
发表于 2025-2-26 10:10 | 显示全部楼层
老黄也要出这种融合CPU了
发表于 2025-2-26 10:17 | 显示全部楼层
shiangyeh 发表于 2025-2-26 10:05
谁给你的感觉老黄的迷你超算比不上这个的,不谈AI的部分,这东西就算光栅性能也就4060呀 ...

这台不就跑AI的,老黄那台开2999

这台1999还能动态调用显存来塞ds大模型
发表于 2025-2-26 11:03 | 显示全部楼层
显存拉到96g然后单机跑70b么
发表于 2025-2-26 11:05 | 显示全部楼层
好看,还有好多可能没用的模块化设计
发表于 2025-2-26 11:07 | 显示全部楼层
liolio 发表于 2025-2-26 11:03
显存拉到96g然后单机跑70b么

跑是可以跑,不知道每秒能吐多少token
发表于 2025-2-26 11:14 来自手机 | 显示全部楼层
8owd8wan 发表于 2025-2-26 11:07
跑是可以跑,不知道每秒能吐多少token

之前泄露是70b模型不到5t
发表于 2025-2-26 11:16 | 显示全部楼层
8owd8wan 发表于 2025-2-26 11:07
跑是可以跑,不知道每秒能吐多少token

https://www.chiphell.com/thread-2672083-1-1.html

这个测试是开64g显存跑70b爆显存时3token/s 个人的话应该勉强能用吧
发表于 2025-2-26 11:20 | 显示全部楼层
liolio 发表于 2025-2-26 11:16
https://www.chiphell.com/thread-2672083-1-1.html

这个测试是开64g显存跑70b爆显存时3token/s 个人的 ...

也不是不能用。。。
其实吧,前两年,很多企业内部私有化部署RAG,也就拿着13B这种规模的LLM基座凑合。
如果这样来看,拿着AI MAX,个人本地流畅跑 DS R1-32B蒸馏模型,已经是从温饱走到了小康
发表于 2025-2-26 11:20 | 显示全部楼层
感觉今年是AI studio 大年....
 楼主| 发表于 2025-2-26 11:25 | 显示全部楼层
怎么感觉那么多人不知道老黄那个是计算卡跑不了游戏

https://www.nvidia.com/en-us/project-digits/


屏幕截图 2025-02-26 112319.png
发表于 2025-2-26 11:45 | 显示全部楼层
testmepro 发表于 2025-2-26 11:20
感觉今年是AI studio 大年....

可惜现在AMD这边(以及后面很长一段时间),还没办法做训练。
不然这个AI MAX,可能会变成AI专业人员的刚需
 楼主| 发表于 2025-2-26 11:54 | 显示全部楼层
8owd8wan 发表于 2025-2-26 11:45
可惜现在AMD这边(以及后面很长一段时间),还没办法做训练。
不然这个AI MAX,可能会变成AI专业人员的刚 ...

https://blog.csdn.net/qq_44948500/article/details/127346390

屏幕截图 2025-02-26 115416.png
发表于 2025-2-26 11:54 | 显示全部楼层
8owd8wan 发表于 2025-2-26 11:45
可惜现在AMD这边(以及后面很长一段时间),还没办法做训练。
不然这个AI MAX,可能会变成AI专业人员的刚 ...

主要是推理吧.个人做训练要求有点高哦
发表于 2025-2-26 12:11 | 显示全部楼层
gtx9 发表于 2025-2-26 11:54
https://blog.csdn.net/qq_44948500/article/details/127346390

问题还挺多的,训练就不折腾AMD了。

仔细想想:
1. LLM本地微调训练,对于大多数应用调包侠(我们这类)或学生来说,也就是know-how,实际意义不大。

2. yolo这类CV的训练,CPU就能应付,更别说随便找一张cuda卡

3. 好像最近本地训练的需求,就一个基于bert的embedding模型。。。

算了,能有这样规模的,做推理的玩意儿,就很满足了。
发表于 2025-2-26 12:51 | 显示全部楼层
8owd8wan 发表于 2025-2-26 11:20
也不是不能用。。。
其实吧,前两年,很多企业内部私有化部署RAG,也就拿着13B这种规模的LLM基座凑合。
...

零刻给的测试数据 12CU+24G“显存”和16CU+48G“显存”基本都是14BQ8跑到6点几 Q4的话10出头

就看32/40CU时的表现能不能等比例上去了
发表于 2025-2-26 13:39 | 显示全部楼层
gtx9 发表于 2025-2-26 11:54
https://blog.csdn.net/qq_44948500/article/details/127346390

A卡和APU的支持是两码事,而且这种玩意更需要类似老黄tensorrt这种的推理库吧
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-21 12:22 , Processed in 0.014818 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表