找回密码
 加入我们
搜索
      
查看: 12043|回复: 62

[显卡] 恭喜大家好消息 好消息

[复制链接]
发表于 2025-1-27 09:08 | 显示全部楼层 |阅读模式
本帖最后由 kuram 于 2025-1-27 11:32 编辑

由于Deepseek 的模型 大幅降低了训练费用,欧美众多公司可能不再需要购买新的AI卡。

到时候老黄的AI卡销量进一步下降

只能拼命推游戏卡找回一点市场。
发表于 2025-1-27 09:11 | 显示全部楼层
又疯了一个,拖下去把
发表于 2025-1-27 09:12 来自手机 | 显示全部楼层
还没这个消息有用
Screenshot_2025-01-27-09-11-52-164_com.caij.see.google.jpg
 楼主| 发表于 2025-1-27 09:14 | 显示全部楼层
SUNKESUN 发表于 2025-1-27 09:11
又疯了一个,拖下去把

预测嘛 到时候看
发表于 2025-1-27 09:15 | 显示全部楼层
你不寄,我不寄,猜猜NV台积电还有AIC谁更寄~
你不买,我不买,明天统统还能跌200~
 楼主| 发表于 2025-1-27 09:15 | 显示全部楼层
黑之月 发表于 2025-1-27 09:12
还没这个消息有用

哈哈 这不是Deepseek 的国外评测出来后 大家才知道 他的性能

另外5090D这拉夸的性能 还要被封AI  也造成了大家不升级

双重叠加下 大家可以观望
 楼主| 发表于 2025-1-27 09:16 | 显示全部楼层
nApoleon 发表于 2025-1-27 09:15
你不寄,我不寄,猜猜NV台积电还有AIC谁更寄~
你不买,我不买,明天统统还能跌200~


哈哈 支持老大的说法  

没提升就不买  我们都是理性经济人假设
发表于 2025-1-27 09:16 | 显示全部楼层
这个看起来的确很强,成本降低不少,但是我觉得最好看实际使用后一段时间才能看出来是真是假
发表于 2025-1-27 09:16 | 显示全部楼层
希望是真的 吧 ,看了这两天媒体对 不过 欧美 ai 这种暴力 提升算力的ai 已经被打脸了,很多都在为  Meta  OA  MS 反思 那么多钱 堆硬件的问题
发表于 2025-1-27 09:18 | 显示全部楼层
GB200 过热问题一直没有办法解决,砍单是必然的。25财年的重心就是CoWoS-L的B300系列,Gaming的还是等等N3(E?P?)的Rubin比较实在。
发表于 2025-1-27 09:18 来自手机 | 显示全部楼层
绝对算力面前,算法再优秀也只可能昙花一现
发表于 2025-1-27 09:19 | 显示全部楼层
kuram 发表于 2025-1-27 09:16
哈哈 支持老大的说法  

没提升就不买  我们都是理性经济人假设

CNBC  的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他们 意识到了  ai 的提升不是硬件问题
发表于 2025-1-27 09:20 | 显示全部楼层
m1screw 发表于 2025-1-27 09:18
GB200 过热问题一直没有办法解决,砍单是必然的。25财年的重心就是CoWoS-L的B300系列,Gaming的还是等等N3 ...

6090肯定要2299刀
发表于 2025-1-27 09:21 | 显示全部楼层
kuram 发表于 2025-1-27 09:15
哈哈 这不是Deepseek 的国外评测出来后 大家才知道 他的性能

另外5090D这拉夸的性能 还要被封AI  也造成 ...

其实吧,现在的很多抱怨无非是那些狮子大开口卖2.5W甚至3W的人造成的。

以现在这种预期来看,如果到时候实际卖价是18000 19000或者干脆原价。
第二天这论坛里得满屏都是5090D。

什么破发不破发的,底气全是卖4090的钱给的。
发表于 2025-1-27 09:21 | 显示全部楼层
本帖最后由 dikuf001 于 2025-1-27 09:22 编辑
ryan9247 发表于 2025-1-27 09:16
这个看起来的确很强,成本降低不少,但是我觉得最好看实际使用后一段时间才能看出来是真是假 ...


麻省,斯坦福等大学一群ai顶尖学者已经帮你复刻证明了 deepseek牛逼,注意不是测试使用,而是完全复刻整体推理训练过程,这可没有什么水分的。。。
 楼主| 发表于 2025-1-27 09:21 | 显示全部楼层
sunneyboy0 发表于 2025-1-27 09:18
绝对算力面前,算法再优秀也只可能昙花一现

这我可不太认同,绝对算力是 算力 算法是算法。

-如果要说绝对算力的问题 那你H100 H800再强,我多堆2倍 3倍的华为AI卡 不是一样解决绝

对算力了

-为什么这次反响这么大的问题 就是 本来花100 能干的事情 你却花了10万 是这个问题。

发表于 2025-1-27 09:25 来自手机 | 显示全部楼层
zhjook 发表于 2025-1-27 09:19
CNBC  的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他 ...

背后几万张卡,不用听他们扯淡。
新路线不断验证试错需要的算力也是非常可观的,只拿最后模型训练的成本(且存疑)说事,有点像那种一天到晚把“我全靠自己奋斗”挂在口头的二代,太幽默了。
而且大厂的优势本来就是力大砖飞,去算力就什么都没了。
发表于 2025-1-27 09:26 来自手机 | 显示全部楼层
sunneyboy0 发表于 2025-1-27 09:18
绝对算力面前,算法再优秀也只可能昙花一现

如果真是这样,那RTGI早就是硬件光线追踪的天下了
发表于 2025-1-27 09:29 | 显示全部楼层

那这个可不一定,等Mobile(aka Apple)和ASIC大户们新的N2设计流片之后,N3的价格肯定是要下调的。
发表于 2025-1-27 09:31 来自手机 | 显示全部楼层
大模型未来要上端侧,这个影响大,分流严重
发表于 2025-1-27 09:40 来自手机 | 显示全部楼层
原来你们大a蛇年买隆力奇的玩法就是这么整出来的
发表于 2025-1-27 09:43 来自手机 | 显示全部楼层
zhjook 发表于 2025-1-27 09:19
CNBC  的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他 ...

人家敢公开说走私显卡吗?不过这事反正打脸了。。。
发表于 2025-1-27 09:43 | 显示全部楼层
软件提高效率是为了最大程度的利用硬件,除非软件已达到最大完成了所需要的功能,否则堆硬件依然在继续,现在的ai明显是在起步的阶段远没达到充分发挥其功能的阶段。
发表于 2025-1-27 09:45 来自手机 | 显示全部楼层
这种说法在矿潮时期好像经常听到
发表于 2025-1-27 09:47 来自手机 | 显示全部楼层
朋友圈看到的,到底是什么梗?
mmexport1737942346905.jpg
发表于 2025-1-27 09:54 来自手机 | 显示全部楼层
clllovehh 发表于 2025-1-27 09:47
朋友圈看到的,到底是什么梗?

今早用的人太多,后端崩了
发表于 2025-1-27 09:55 | 显示全部楼层
访问的人太多了,大量涌入
发表于 2025-1-27 09:56 | 显示全部楼层
deepseek的R1 已经可以本地化运行了。
发表于 2025-1-27 10:02 | 显示全部楼层
本帖最后由 m1screw 于 2025-1-27 10:12 编辑

论文里面说是用的"2048 NVIDIA H800 GPUs",但实际上他们手里还有50K左右的H100[1],也就是说实际的训练集群规模应该是接近大于Llama 3[2]的。个人猜测论文里面没讲实话应该还是怕被拉实体清单,那样的话真的连阉割版的计算卡都买不到。

[1] https://wccftech.com/chinese-ai- ... i-gpus-says-ai-ceo/
[2] https://arxiv.org/pdf/2407.21783

"Llama 3 405B is trained on up to 16K H100 GPUs, each running at 700W TDP with 80GB HBM3, using Meta's Grand Teton AI server platform."
发表于 2025-1-27 10:06 | 显示全部楼层
m1screw 发表于 2025-1-27 10:02
论文里面说是用的"2048 NVIDIA H800 GPUs",但实际上他们手里还有50K左右的H100,也就是说实际的训练集群规 ...

你这个说法合理
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-2-21 19:06 , Processed in 0.013038 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表