恭喜大家好消息 好消息
本帖最后由 kuram 于 2025-1-27 11:32 编辑由于Deepseek 的模型 大幅降低了训练费用,欧美众多公司可能不再需要购买新的AI卡。
到时候老黄的AI卡销量进一步下降
只能拼命推游戏卡找回一点市场。 又疯了一个,拖下去把 还没这个消息有用 SUNKESUN 发表于 2025-1-27 09:11
又疯了一个,拖下去把
预测嘛 到时候看 你不寄,我不寄,猜猜NV台积电还有AIC谁更寄~
你不买,我不买,明天统统还能跌200~ 黑之月 发表于 2025-1-27 09:12
还没这个消息有用
哈哈 这不是Deepseek 的国外评测出来后 大家才知道 他的性能
另外5090D这拉夸的性能 还要被封AI也造成了大家不升级
双重叠加下 大家可以观望 nApoleon 发表于 2025-1-27 09:15
你不寄,我不寄,猜猜NV台积电还有AIC谁更寄~
你不买,我不买,明天统统还能跌200~
哈哈 支持老大的说法
没提升就不买我们都是理性经济人假设 这个看起来的确很强,成本降低不少,但是我觉得最好看实际使用后一段时间才能看出来是真是假 希望是真的 吧 ,看了这两天媒体对 不过 欧美 ai 这种暴力 提升算力的ai 已经被打脸了,很多都在为MetaOAMS 反思 那么多钱 堆硬件的问题 GB200 过热问题一直没有办法解决,砍单是必然的。25财年的重心就是CoWoS-L的B300系列,Gaming的还是等等N3(E?P?)的Rubin比较实在。 绝对算力面前,算法再优秀也只可能昙花一现 kuram 发表于 2025-1-27 09:16
哈哈 支持老大的说法
没提升就不买我们都是理性经济人假设
CNBC的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他们 意识到了ai 的提升不是硬件问题
m1screw 发表于 2025-1-27 09:18
GB200 过热问题一直没有办法解决,砍单是必然的。25财年的重心就是CoWoS-L的B300系列,Gaming的还是等等N3 ...
6090肯定要2299刀 kuram 发表于 2025-1-27 09:15
哈哈 这不是Deepseek 的国外评测出来后 大家才知道 他的性能
另外5090D这拉夸的性能 还要被封AI也造成 ...
其实吧,现在的很多抱怨无非是那些狮子大开口卖2.5W甚至3W的人造成的。
以现在这种预期来看,如果到时候实际卖价是18000 19000或者干脆原价。
第二天这论坛里得满屏都是5090D。
什么破发不破发的,底气全是卖4090的钱给的。[狂笑] 本帖最后由 dikuf001 于 2025-1-27 09:22 编辑
ryan9247 发表于 2025-1-27 09:16
这个看起来的确很强,成本降低不少,但是我觉得最好看实际使用后一段时间才能看出来是真是假 ...
麻省,斯坦福等大学一群ai顶尖学者已经帮你复刻证明了 deepseek牛逼,注意不是测试使用,而是完全复刻整体推理训练过程,这可没有什么水分的。。。 sunneyboy0 发表于 2025-1-27 09:18
绝对算力面前,算法再优秀也只可能昙花一现
这我可不太认同,绝对算力是 算力 算法是算法。
-如果要说绝对算力的问题 那你H100 H800再强,我多堆2倍 3倍的华为AI卡 不是一样解决绝
对算力了
-为什么这次反响这么大的问题 就是 本来花100 能干的事情 你却花了10万 是这个问题。
zhjook 发表于 2025-1-27 09:19
CNBC的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他 ...
背后几万张卡,不用听他们扯淡。
新路线不断验证试错需要的算力也是非常可观的,只拿最后模型训练的成本(且存疑)说事,有点像那种一天到晚把“我全靠自己奋斗”挂在口头的二代,太幽默了。
而且大厂的优势本来就是力大砖飞,去算力就什么都没了。 sunneyboy0 发表于 2025-1-27 09:18
绝对算力面前,算法再优秀也只可能昙花一现
如果真是这样,那RTGI早就是硬件光线追踪的天下了 PolyMorph 发表于 2025-1-27 09:20
6090肯定要2299刀
那这个可不一定,等Mobile(aka Apple)和ASIC大户们新的N2设计流片之后,N3的价格肯定是要下调的。 大模型未来要上端侧,这个影响大,分流严重 原来你们大a蛇年买隆力奇的玩法就是这么整出来的 zhjook 发表于 2025-1-27 09:19
CNBC的报到 是 dp sk 的硬件实验室才560w 刀, 其他 ai大厂 都是数十上百亿刀的 硬件
相比之下, 让 他 ...
人家敢公开说走私显卡吗?不过这事反正打脸了。。。 软件提高效率是为了最大程度的利用硬件,除非软件已达到最大完成了所需要的功能,否则堆硬件依然在继续,现在的ai明显是在起步的阶段远没达到充分发挥其功能的阶段。 这种说法在矿潮时期好像经常听到[偷笑] 朋友圈看到的,到底是什么梗?[偷笑][偷笑][偷笑] clllovehh 发表于 2025-1-27 09:47
朋友圈看到的,到底是什么梗?
今早用的人太多,后端崩了 访问的人太多了,大量涌入 deepseek的R1 已经可以本地化运行了。 本帖最后由 m1screw 于 2025-1-27 10:12 编辑
论文里面说是用的"2048 NVIDIA H800 GPUs",但实际上他们手里还有50K左右的H100,也就是说实际的训练集群规模应该是接近大于Llama 3的。个人猜测论文里面没讲实话应该还是怕被拉实体清单,那样的话真的连阉割版的计算卡都买不到。
https://wccftech.com/chinese-ai-lab-deepseek-has-50000-nvidia-h100-ai-gpus-says-ai-ceo/
https://arxiv.org/pdf/2407.21783
"Llama 3 405B is trained on up to 16K H100 GPUs, each running at 700W TDP with 80GB HBM3, using Meta's Grand Teton AI server platform." m1screw 发表于 2025-1-27 10:02
论文里面说是用的"2048 NVIDIA H800 GPUs",但实际上他们手里还有50K左右的H100,也就是说实际的训练集群规 ...
你这个说法合理