listree 发表于 2025-2-10 18:00

运行deepseek完整模型,电脑配置大概要多少钱?

大概要1.4t的内存,需要几张显卡?
主板、CPU、显卡怎么选?
这里有人自己组装电脑运行deepseek完整模型么[偷笑]

psps3 发表于 2025-2-10 18:01

刚看到这个帖子,跑的满血版,1.5显存,1.5t内存[困惑]https://www.chiphell.com/forum.php?mod=viewthread&tid=2671222&extra=page%3D1

neavo 发表于 2025-2-10 18:08

官方推荐配置 H100*8,大概要一百来万吧,速度大概 2800T/S

StevenG 发表于 2025-2-10 18:11

neavo 发表于 2025-2-10 18:08
官方推荐配置 H100*8,大概要一百来万吧,速度大概 2800T/S

100多万,买的应该都是二手

momo77989724 发表于 2025-2-10 18:12


组是能组的 就是要24根64G
组了也跑不动1.5T相对4B的700G要求 他的计算需求也更高组完也就5T/S附近

pingji 发表于 2025-2-10 18:19

neavo 发表于 2025-2-10 18:08
官方推荐配置 H100*8,大概要一百来万吧,速度大概 2800T/S

现货已经超2w刀/片了,最新普遍报价是2.3w刀不还价,8卡机器整机报价基本都超200w人民币

ShireCiel 发表于 2025-2-10 18:20

200多W RMB

darkness66201 发表于 2025-2-10 18:22

听说划个几T 的虚拟内存就能跑了,楼主硬盘应该够,也许可以试试[偷笑]

gunner_l 发表于 2025-2-10 23:10

darkness66201 发表于 2025-2-10 18:22
听说划个几T 的虚拟内存就能跑了,楼主硬盘应该够,也许可以试试

机械硬盘可以吗?刚好有个6t的闲置

darkness66201 发表于 2025-2-10 23:40

gunner_l 发表于 2025-2-10 23:10
机械硬盘可以吗?刚好有个6t的闲置

不知道一个小时能不能吐一个token

矜持之泪 发表于 2025-2-10 23:51

能跑起来和跑起来能用差2个数量级

ruo101 发表于 2025-2-10 23:58

neavo 发表于 2025-2-10 18:08
官方推荐配置 H100*8,大概要一百来万吧,速度大概 2800T/S

说起H100这货· ·早些天看见朋友圈有个人发 说50万张H100 什么什么搞项目之类 说什么什么企业家加盟之类 呼叫集资 · ·我反手一个举报· ·哈哈· ·

listree 发表于 2025-2-10 23:59

psps3 发表于 2025-2-10 18:01
刚看到这个帖子,跑的满血版,1.5显存,1.5t内存https://www.chiphell.com/forum.php?mod=viewthread&tid=2 ...

土豪[恶魔]

lyys 发表于 2025-2-11 00:04

个人跑着玩 5token都够了
3080ti跑32B的路过,只有3token[偷笑]

Bazooka 发表于 2025-2-11 00:32

AI发帖吗,前阵子公司领导让来论坛问满血本地部署的是你不?

tenll 发表于 2025-2-11 08:10

dd4 8通道,16核心epyc, 内存1T 跑完全版本速度是1.5token,只是能跑的程度。
想要速度快一点,12通道 ddr5 内存 1T ,64核心cpu是标配,内存速度是关键。

KimmyGLM 发表于 2025-2-11 09:14

tenll 发表于 2025-2-11 08:10
dd4 8通道,16核心epyc, 内存1T 跑完全版本速度是1.5token,只是能跑的程度。
想要速度快一点,12通道 ddr ...

不跑全量的671B Q4 的话,Q2以下的版本还是挺快的;
越大越接近全量的Q4 Q8 甚至int16, 内存带宽也必须跟着模型大小同步翻倍,才能跑到相同的速度;

TincoJ 发表于 2025-2-11 09:56

lyys 发表于 2025-2-11 00:04
个人跑着玩 5token都够了
3080ti跑32B的路过,只有3token

32B要20GB显存, 你是弄的3080ti 20GB显卡吗 还是用内存共享了。

yxxkz8 发表于 2025-2-11 11:45

个人用最低有个30token还可以接受,不过不知道啥配置可以达到这个水平

gmlee1999 发表于 2025-2-11 11:50

别整天搞些没用的,自己给自己制造需求,当然,三五百万是你零花钱当我没说。

lyys 发表于 2025-2-11 20:59

TincoJ 发表于 2025-2-11 09:56
32B要20GB显存, 你是弄的3080ti 20GB显卡吗 还是用内存共享了。

12GB的,吃内存,所以跑起来慢

forecast306 发表于 2025-2-11 21:33

一个免费的gemini 完爆,有必要吗

maaaaaaagie 发表于 2025-2-12 13:38

neavo 发表于 2025-2-10 18:08
官方推荐配置 H100*8,大概要一百来万吧,速度大概 2800T/S

8张H100跑满血版有那么快?

网仙 发表于 2025-2-12 15:18

本帖最后由 网仙 于 2025-2-13 09:17 编辑

tenll 发表于 2025-2-11 08:10
dd4 8通道,16核心epyc, 内存1T 跑完全版本速度是1.5token,只是能跑的程度。
想要速度快一点,12通道 ddr ...

上1.5T显存的显卡那确实是有点太费了,
我也在关注CPU跑,

intel 5代8581,内存8通道ddr5-5600,96GB*8,768GB,可以玩671B的Q8模型,成本4W
epyc 9565,内存12通道ddr5-5600,128Gb*12,1.5TB,可以玩满血的16位,成本得6W+

不过最近搜了一些信息,有人说只能输出5-7t/s
也有人说可以15-20t/s,如果能达到,还是值得搞一下的。若只有5t/S那基本没啥实用性,还不如本地32B/70B,代价低一点。


liolio 发表于 2025-2-12 22:25

mi300x按这里说能671b原始fp8版本跑到3500token/s,2048并发下

https://weibo.com/1497035431/5132472518185657

巴特沃斯 发表于 2025-2-12 22:28

网仙 发表于 2025-2-12 15:18
上1.5T显存的显卡那确实是有点太费了,
我也在关注CPU跑,



用lpddr5x来凑。[偷笑]

但这么凑完颗粒的物料价格也得至少10块钱1g(参考咸鱼16g 8533单颗价格)

带宽倒还好,容量凑够了位宽不会低

petruswang 发表于 2025-2-12 23:28

来猜猜这个下限花了多少钱[狂笑]

szeller 发表于 2025-2-13 02:17

本帖最后由 szeller 于 2025-2-13 02:21 编辑

https://mp.weixin.qq.com/s/MSdugYNArbmlOFM4jdLIcw

清华大佬刚刚发布的成果,24G显存4090单卡 + 1T内存 在本地运行DeepSeek-R1、V3的671B满血版。预处理速度最高达到286 tokens/s,推理生成速度最高能达到14 tokens/s。

具体我也不太懂,供参考吧

网仙 发表于 2025-2-13 09:21

petruswang 发表于 2025-2-12 23:28
来猜猜这个下限花了多少钱

纯CPU跑的671b:fp8?
什么CPU?每秒多少tk?

网仙 发表于 2025-2-13 09:22

szeller 发表于 2025-2-13 02:17
https://mp.weixin.qq.com/s/MSdugYNArbmlOFM4jdLIcw

清华大佬刚刚发布的成果,24G显存4090单卡 + 1T内存...

本地运行14tk/s,就具备一定的可用性了,主要是成本相对比较低
页: [1] 2
查看完整版本: 运行deepseek完整模型,电脑配置大概要多少钱?