滚滚 发表于 2025-3-14 09:39

为什么有人装4张5090显卡

没有nvlink,你没法把4张显卡连起来啊?

jinye2001 发表于 2025-3-14 09:41

跑AI不需要nv link

田牌改名部 发表于 2025-3-14 09:44

跑渲染也不需要nvlink

Jimmy_Qiu 发表于 2025-3-14 09:47

当4个单卡用就是了。

滚滚 发表于 2025-3-14 09:47

田牌改名部 发表于 2025-3-14 09:44
跑渲染也不需要nvlink

AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗?

terryhux 发表于 2025-3-14 09:53

滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...

跑训练需要

zhuifeng88 发表于 2025-3-14 10:02

滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...

有用≠必须, 包括训练也不必须
nvlink谈不上护城河, 同等互联每家计算卡都有

zhuzhe1983 发表于 2025-3-14 10:18

map reduce类型,或者多实例都能用上,把几块卡拼成一块卡才要nvlink

可以抱的萝卜 发表于 2025-3-14 10:29

现在大多数情况都可以不用nvlink了,

StevenG 发表于 2025-3-14 10:41

老黄的护城河是CUDA,真要说互联技术,也不是柜内的nvlink,而是柜间的IB高速无损网络,当年收购迈络思真是一步好棋,现在其他大厂搞了个通信联盟来对付老黄[偷笑]

pingji 发表于 2025-3-14 10:45

您有没有想过pcie是干什么用的?跑ai也用不着nvlink啊

hjmfun 发表于 2025-3-14 11:07

其实pcie5.0*16已经比3090那代的nvlink快了

我輩樹である 发表于 2025-3-14 11:11

很多任务可以通过3d并行解决,并不是一直需要nvlink。当然nvlink的效率是最高的,但代价也是巨大的,就是一个简单的tradeoff。

evangelion_air 发表于 2025-3-14 11:20

这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差异巨大,而且从40系开始全系不支持pcie p2p,速度更慢

PolyMorph 发表于 2025-3-14 11:22

evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差 ...

那为啥4090二手还要1w8

evangelion_air 发表于 2025-3-14 11:27

PolyMorph 发表于 2025-3-14 11:22
那为啥4090二手还要1w8

因为显存容量翻倍

先解决能跑,再解决跑得快不快

EN0000EN 发表于 2025-3-14 11:31

pcie switch

deepfishing 发表于 2025-3-14 11:40

滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...

游戏卡的nvlink一直没啥大用,DGX的nvlink和游戏卡的不是一回事,大规模通信和4卡也不是一回事,之前30和40是老黄特意阉割卡间通信的特性,pcie p2p特性全开加pcie5.0正常情况下完全够用了

fj0327 发表于 2025-3-14 15:24

5090这么容易买的么

21PENNY 发表于 2025-3-14 17:31

evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差 ...

用cuda sampe的p2p测试,20系就不能pcie P2P了。

21PENNY 发表于 2025-3-14 17:58

21PENNY 发表于 2025-3-14 17:31
用cuda sampe的p2p测试,20系就不能pcie P2P了。

同期专业卡的P2P功能则一直保留着

c2h6o 发表于 2025-3-14 18:00

装了8个4090的机器大把。

lh0ngfu 发表于 2025-3-15 23:29

40 系的 p2p 是不是可以有一个破解驱动?

tina81811 发表于 2025-3-16 00:40

21PENNY 发表于 2025-3-14 17:31
用cuda sampe的p2p测试,20系就不能pcie P2P了。

20系可以用nvlink p2p啊, 不过是阉割版, 双卡也不够用, 当年对训练几乎没什么提升

mangomango 发表于 2025-3-16 00:53

evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差 ...

influence还是inference?[偷笑]

YsHaNg 发表于 2025-3-16 08:45

mangomango 发表于 2025-3-15 16:53
influence还是inference?

嘿嘿就喜欢这种 嘿嘿嘿

os39000 发表于 2025-3-16 09:24

mangomango 发表于 2025-3-16 00:53
influence还是inference?

这种用法(unacceptable)可以接受的[偷笑]

LocaVoiD 发表于 2025-3-16 09:26

每个热爱生活的玩家都应该买8张5090。

g7muik 发表于 2025-3-16 09:32

跑AI用4x就行

kanshuderen 发表于 2025-3-16 09:33

我也不懂。。。
页: [1] 2
查看完整版本: 为什么有人装4张5090显卡