找回密码
 加入我们
搜索
      
楼主: slymitec

[显卡] 到底AI所用的数学模型和数值计算方法,对游戏卡有无大规模“竞争”?

[复制链接]
发表于 2023-7-11 17:48 来自手机 | 显示全部楼层
fairness 发表于 2023-7-11 17:17
大规模的AI训练系统,不仅仅看单卡,还要看多卡互联;4090没有NVLINK,  互联的方案只能走PCIE的话,这样 ...

根据我了解到的,RTX 3090、4090不支持PCIE至PCIE,要通过内存绕一圈

发表于 2023-7-11 19:54 | 显示全部楼层
我輩樹である 发表于 2023-7-11 17:42
这个当然是技术上的原因。我要说的是4090组AI集群/HPC在源头就是被禁止的。

至于llm的对吞吐量的需求, ...

其实你们讨论这些只是一些利润在不同的厂商之间分配而已;
假如: 一万美金的A100只卖1万人民币; 3-4万的H100只卖2万人民币; 这会有什么影响呢?
首先就是像大厂采购的成本更低了,它们花的钱少了; 但大厂买回去只作为自己的生产力工具,提供的服务可能还是原价,它们按照自己的服务能力售价;例如: OpenAI的收费还是20美金/月; 这样只是大厂的利润更高,OpenAI能更早的盈利; 然后NV这边的赚的钱少了一些 ---- 相当利润于转移到大厂。

第二,在售价改为这么低以后,销量和预售的量势必更大; 台积电开心; 但是对于那些同样想做AI芯片的创业公司却会更加艰难; 现在,只要它们的产品只要比1W美金的A100,和3-4W美金的H100低就有性价比;  变为要对比1W人民币的A100,和2W人民币的H100低; 难度大的不是一点半点。  

发表于 2023-7-11 20:07 | 显示全部楼层
fairness 发表于 2023-7-11 19:54
其实你们讨论这些只是一些利润在不同的厂商之间分配而已;
假如: 一万美金的A100只卖1万人民币; 3-4万 ...

这个我就不懂啦。
发表于 2023-7-11 20:27 | 显示全部楼层
将要出的4060ti 16g估计也很多实验室买。毕竟大显存决定是否可以训练,速度可以熬时间或者堆数量。3070 16g胎死腹中估计也是怕抢rtx a4000的生意。
发表于 2023-7-12 17:55 | 显示全部楼层
darkness66201 发表于 2023-7-10 15:57
反正现在A100/H100供不应求,30万一张都一样依然在疯抢,却没有公司花30万买20张4090跑AI,那么多大公司人 ...

用4090跑 老黄会找上家门
而且没有NVLINK
发表于 2023-7-12 21:00 | 显示全部楼层
有,即使不考虑抢占产能,大量非正规工业界需求也接受普通精度,便宜就是一切,更别说现在好多大显存的游戏卡了。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-2-5 04:04 , Processed in 0.007853 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表