kuram 发表于 2025-1-27 09:08

恭喜大家好消息 好消息

本帖最后由 kuram 于 2025-1-27 11:32 编辑

由于Deepseek 的模型 大幅降低了训练费用,欧美众多公司可能不再需要购买新的AI卡。

到时候老黄的AI卡销量进一步下降

只能拼命推游戏卡找回一点市场。

SUNKESUN 发表于 2025-1-27 09:11

又疯了一个,拖下去把

黑之月 发表于 2025-1-27 09:12

还没这个消息有用

kuram 发表于 2025-1-27 09:14

SUNKESUN 发表于 2025-1-27 09:11
又疯了一个,拖下去把

预测嘛 到时候看

nApoleon 发表于 2025-1-27 09:15

你不寄,我不寄,猜猜NV台积电还有AIC谁更寄~
你不买,我不买,明天统统还能跌200~

kuram 发表于 2025-1-27 09:15

黑之月 发表于 2025-1-27 09:12
还没这个消息有用

哈哈 这不是Deepseek 的国外评测出来后 大家才知道 他的性能

另外5090D这拉夸的性能 还要被封AI也造成了大家不升级

双重叠加下 大家可以观望

kuram 发表于 2025-1-27 09:16

nApoleon 发表于 2025-1-27 09:15
你不寄,我不寄,猜猜NV台积电还有AIC谁更寄~
你不买,我不买,明天统统还能跌200~

哈哈 支持老大的说法

没提升就不买我们都是理性经济人假设

ryan9247 发表于 2025-1-27 09:16

这个看起来的确很强,成本降低不少,但是我觉得最好看实际使用后一段时间才能看出来是真是假

zhjook 发表于 2025-1-27 09:16

希望是真的 吧 ,看了这两天媒体对 不过 欧美 ai 这种暴力 提升算力的ai 已经被打脸了,很多都在为MetaOAMS 反思 那么多钱 堆硬件的问题

m1screw 发表于 2025-1-27 09:18

GB200 过热问题一直没有办法解决,砍单是必然的。25财年的重心就是CoWoS-L的B300系列,Gaming的还是等等N3(E?P?)的Rubin比较实在。

sunneyboy0 发表于 2025-1-27 09:18

绝对算力面前,算法再优秀也只可能昙花一现

zhjook 发表于 2025-1-27 09:19

kuram 发表于 2025-1-27 09:16
哈哈 支持老大的说法

没提升就不买我们都是理性经济人假设

CNBC的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他们 意识到了ai 的提升不是硬件问题

PolyMorph 发表于 2025-1-27 09:20

m1screw 发表于 2025-1-27 09:18
GB200 过热问题一直没有办法解决,砍单是必然的。25财年的重心就是CoWoS-L的B300系列,Gaming的还是等等N3 ...

6090肯定要2299刀

lh4357 发表于 2025-1-27 09:21

kuram 发表于 2025-1-27 09:15
哈哈 这不是Deepseek 的国外评测出来后 大家才知道 他的性能

另外5090D这拉夸的性能 还要被封AI也造成 ...

其实吧,现在的很多抱怨无非是那些狮子大开口卖2.5W甚至3W的人造成的。

以现在这种预期来看,如果到时候实际卖价是18000 19000或者干脆原价。
第二天这论坛里得满屏都是5090D。

什么破发不破发的,底气全是卖4090的钱给的。[狂笑]

dikuf001 发表于 2025-1-27 09:21

本帖最后由 dikuf001 于 2025-1-27 09:22 编辑

ryan9247 发表于 2025-1-27 09:16
这个看起来的确很强,成本降低不少,但是我觉得最好看实际使用后一段时间才能看出来是真是假 ...

麻省,斯坦福等大学一群ai顶尖学者已经帮你复刻证明了 deepseek牛逼,注意不是测试使用,而是完全复刻整体推理训练过程,这可没有什么水分的。。。

kuram 发表于 2025-1-27 09:21

sunneyboy0 发表于 2025-1-27 09:18
绝对算力面前,算法再优秀也只可能昙花一现

这我可不太认同,绝对算力是 算力 算法是算法。

-如果要说绝对算力的问题 那你H100 H800再强,我多堆2倍 3倍的华为AI卡 不是一样解决绝

对算力了

-为什么这次反响这么大的问题 就是 本来花100 能干的事情 你却花了10万 是这个问题。

LocaVoiD 发表于 2025-1-27 09:25

zhjook 发表于 2025-1-27 09:19
CNBC的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他 ...

背后几万张卡,不用听他们扯淡。
新路线不断验证试错需要的算力也是非常可观的,只拿最后模型训练的成本(且存疑)说事,有点像那种一天到晚把“我全靠自己奋斗”挂在口头的二代,太幽默了。
而且大厂的优势本来就是力大砖飞,去算力就什么都没了。

PPXG 发表于 2025-1-27 09:26

sunneyboy0 发表于 2025-1-27 09:18
绝对算力面前,算法再优秀也只可能昙花一现

如果真是这样,那RTGI早就是硬件光线追踪的天下了

m1screw 发表于 2025-1-27 09:29

PolyMorph 发表于 2025-1-27 09:20
6090肯定要2299刀

那这个可不一定,等Mobile(aka Apple)和ASIC大户们新的N2设计流片之后,N3的价格肯定是要下调的。

wikieden 发表于 2025-1-27 09:31

大模型未来要上端侧,这个影响大,分流严重

YsHaNg 发表于 2025-1-27 09:40

原来你们大a蛇年买隆力奇的玩法就是这么整出来的

forfans 发表于 2025-1-27 09:43

zhjook 发表于 2025-1-27 09:19
CNBC的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他 ...

人家敢公开说走私显卡吗?不过这事反正打脸了。。。

highchh 发表于 2025-1-27 09:43

软件提高效率是为了最大程度的利用硬件,除非软件已达到最大完成了所需要的功能,否则堆硬件依然在继续,现在的ai明显是在起步的阶段远没达到充分发挥其功能的阶段。

rana23 发表于 2025-1-27 09:45

这种说法在矿潮时期好像经常听到[偷笑]

clllovehh 发表于 2025-1-27 09:47

朋友圈看到的,到底是什么梗?[偷笑][偷笑][偷笑]

StevenG 发表于 2025-1-27 09:54

clllovehh 发表于 2025-1-27 09:47
朋友圈看到的,到底是什么梗?

今早用的人太多,后端崩了

guoqingkong 发表于 2025-1-27 09:55

访问的人太多了,大量涌入

guoqingkong 发表于 2025-1-27 09:56

deepseek的R1 已经可以本地化运行了。

m1screw 发表于 2025-1-27 10:02

本帖最后由 m1screw 于 2025-1-27 10:12 编辑

论文里面说是用的"2048 NVIDIA H800 GPUs",但实际上他们手里还有50K左右的H100,也就是说实际的训练集群规模应该是接近大于Llama 3的。个人猜测论文里面没讲实话应该还是怕被拉实体清单,那样的话真的连阉割版的计算卡都买不到。

https://wccftech.com/chinese-ai-lab-deepseek-has-50000-nvidia-h100-ai-gpus-says-ai-ceo/
https://arxiv.org/pdf/2407.21783

"Llama 3 405B is trained on up to 16K H100 GPUs, each running at 700W TDP with 80GB HBM3, using Meta's Grand Teton AI server platform."

盐湖 发表于 2025-1-27 10:06

m1screw 发表于 2025-1-27 10:02
论文里面说是用的"2048 NVIDIA H800 GPUs",但实际上他们手里还有50K左右的H100,也就是说实际的训练集群规 ...

你这个说法合理
页: [1] 2 3
查看完整版本: 恭喜大家好消息 好消息