为什么有人装4张5090显卡
没有nvlink,你没法把4张显卡连起来啊? 跑AI不需要nv link 跑渲染也不需要nvlink 当4个单卡用就是了。 田牌改名部 发表于 2025-3-14 09:44跑渲染也不需要nvlink
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? 滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...
跑训练需要 滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...
有用≠必须, 包括训练也不必须
nvlink谈不上护城河, 同等互联每家计算卡都有 map reduce类型,或者多实例都能用上,把几块卡拼成一块卡才要nvlink 现在大多数情况都可以不用nvlink了, 老黄的护城河是CUDA,真要说互联技术,也不是柜内的nvlink,而是柜间的IB高速无损网络,当年收购迈络思真是一步好棋,现在其他大厂搞了个通信联盟来对付老黄[偷笑] 您有没有想过pcie是干什么用的?跑ai也用不着nvlink啊 其实pcie5.0*16已经比3090那代的nvlink快了 很多任务可以通过3d并行解决,并不是一直需要nvlink。当然nvlink的效率是最高的,但代价也是巨大的,就是一个简单的tradeoff。 这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了
有没有nvlink速度差异巨大,而且从40系开始全系不支持pcie p2p,速度更慢 evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了
有没有nvlink速度差 ...
那为啥4090二手还要1w8 PolyMorph 发表于 2025-3-14 11:22
那为啥4090二手还要1w8
因为显存容量翻倍
先解决能跑,再解决跑得快不快 pcie switch 滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...
游戏卡的nvlink一直没啥大用,DGX的nvlink和游戏卡的不是一回事,大规模通信和4卡也不是一回事,之前30和40是老黄特意阉割卡间通信的特性,pcie p2p特性全开加pcie5.0正常情况下完全够用了 5090这么容易买的么 evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了
有没有nvlink速度差 ...
用cuda sampe的p2p测试,20系就不能pcie P2P了。 21PENNY 发表于 2025-3-14 17:31
用cuda sampe的p2p测试,20系就不能pcie P2P了。
同期专业卡的P2P功能则一直保留着 装了8个4090的机器大把。 40 系的 p2p 是不是可以有一个破解驱动? 21PENNY 发表于 2025-3-14 17:31
用cuda sampe的p2p测试,20系就不能pcie P2P了。
20系可以用nvlink p2p啊, 不过是阉割版, 双卡也不够用, 当年对训练几乎没什么提升 evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了
有没有nvlink速度差 ...
influence还是inference?[偷笑] mangomango 发表于 2025-3-15 16:53
influence还是inference?
嘿嘿就喜欢这种 嘿嘿嘿 mangomango 发表于 2025-3-16 00:53
influence还是inference?
这种用法(unacceptable)可以接受的[偷笑] 每个热爱生活的玩家都应该买8张5090。 跑AI用4x就行 我也不懂。。。
页:
[1]
2