哎。。。怪不得溢价乏力了
怎么说呢。。。5090现在的pytorch生态表现还不如rocm,随便搞个vllm,autoawq,flash-attn,没有一个能正常用,从代码编译都不行。同样代码,qwen2.5-vl模型,rocm跑至少能跑。5090就不一样了,各种不能用,显存释放存在问题。。。
别说出来,让炒90的继续皇帝的新装,炒的越厉害到时候崩得越猛~ 毕竟那个最疼爱男人的女人,宁可这代不出旗舰卡,也要搞ai生态[偷笑] 而且据说 5090 非d版 也不能多卡[偷笑],不知道是市面卡太少兼容问题还是硬件驱动限制[音乐] gerbigo 发表于 2025-3-8 09:22
而且据说 5090 非d版 也不能多卡,不知道是市面卡太少兼容问题还是硬件驱动限制 ...
训练不清楚,如果是推理看评测应该感觉可以,有人测5090+5080或40系显卡。
不过现阶段的生态就是没法用的水平 炒作囤货的人又不懂这些,不影响继续炒作涨价 manyhn 发表于 2025-3-8 09:26
训练不清楚,如果是推理看评测应该感觉可以,有人测5090+5080或40系显卡。
不过现阶段的生态就是没法用 ...
前几天在油管上看到的,不知道是驱动和硬件的限制还是开发工具的适配问题(市面上真正卖出去的卡也没几张),单卡跑32b的大模型推理,倒是可以用,多卡不能用。 这个早就知道了,在某地看到有人写求付费解决都没人理。
黄世仁总以为CUDA是一切,但他忘了没有人帮他适配优化,一切都是空中楼阁,50系卖的越少,那么各种适配就越慢
强如苹果的头显又如何,你看看有多少人去开发的[偷笑] 本帖最后由 lh4357 于 2025-3-8 16:31 编辑
sm_120不支持是版本太旧,直接装个nightly cu128。
4W+的显卡真有人买? yj811202 发表于 2025-3-8 09:59
4W+的显卡真有人买?
沙比才去买 lh4357 发表于 2025-3-8 09:56
sm_120不支持是版本太旧,直接装个nightly cu128。
但torchaudio在torch 2.7.0的环境下,一直编译不了win ...
这个就是torch2.7的效果,现在不在于torch,而是一众生态至少要torch先正式支持后续的才跟的上 本帖最后由 lh4357 于 2025-3-8 10:15 编辑
manyhn 发表于 2025-3-8 10:10
这个就是torch2.7的效果,现在不在于torch,而是一众生态至少要torch先正式支持后续的才跟的上 ...
2.7.0的话,那就算错误,也不该是sm_120的这个错误啊,你是不是安装的时候没加cu128?
pip install --pre torch torchvision --index-url https://download.pytorch.org/whl/nightly/cu128 显卡是用来玩游戏的,不是来搞这些乱七八糟的玩意的 lh4357 发表于 2025-3-8 10:14
2.7.0的话,那就算错误,也不该是sm_120的这个错误啊,你是不是安装的时候没加cu128?
pip install --pr ...
是这个地址没错。这个错并不是PyTorch报的,而是flash-attn编译运行时报的 manyhn 发表于 2025-3-8 10:30
是这个地址没错。这个错并不是PyTorch报的,而是flash-attn编译运行时报的
我试了下,qwen2.5-vl可以跑啊,加上--flash-attn2(自己编译的)参数也还是能跑。[困惑]
shuyue2 发表于 2025-3-8 10:28
显卡是用来玩游戏的,不是来搞这些乱七八糟的玩意的
玩游戏才是小众 和 代码的比 零头都算不上 StevenG 发表于 2025-3-8 09:14
毕竟那个最疼爱男人的女人,宁可这代不出旗舰卡,也要搞ai生态
那是navi31酥麻真的给力,给了navi31全家的wsl2 rocm完整支持(79gre 79xt 79xtx w78 w79)9070目前还不支持,32g的赶紧上吧 StevenG 发表于 2025-3-8 09:14
毕竟那个最疼爱男人的女人,宁可这代不出旗舰卡,也要搞ai生态
那个女人是什么梗来着?脑子突然转不过来了,ds也回答不上
难道说的是苏博士? 快点删帖,这样吹AMD我要何时才能买到原价的9070xt
掉驱动不稳定炸核心宣传起来啊[晕倒] 现阶段5090(d)就是纯游戏卡,人工智能框架都没适配,白给 你不买,我不买,明天还能降500.
昨天跑了一下黑鹰坠落,无论是4060还是3080ti都可以流畅运行,根本不着急换显卡。 lh4357 发表于 2025-3-8 09:56
sm_120不支持是版本太旧,直接装个nightly cu128。
但torchaudio在torch 2.7.0的环境下,一直编译不了win ...
现在还没更新吗 本帖最后由 lh4357 于 2025-3-8 18:32 编辑
8xwob3ko 发表于 2025-3-8 16:26
现在还没更新吗
刚才看了下,更新了,不用切换了。
不过话说回来,这破玩意硬是耗了一个月才有,什么神奇效率。。 完了,40系要涨价了[狂笑] a010301208 发表于 2025-3-8 09:45
这个早就知道了,在某地看到有人写求付费解决都没人理。
黄世仁总以为CUDA是一切,但他忘了没有人帮他适配 ...
我觉得要不要反过来理解
游戏卡卖的太多了,好多人自己开发工具用游戏卡跑计算,挤占了专业卡的市场。
那不如游戏卡少卖点,同时提供更强更好更贵的专业卡和服务。[偷笑] solder 发表于 2025-3-8 15:16
那个女人是什么梗来着?脑子突然转不过来了,ds也回答不上
难道说的是苏博士? ...
男性公敌/下头男是谁不用我多说了吧 lh4357 发表于 2025-3-8 14:33
我试了下,qwen2.5-vl可以跑啊,加上--flash-attn2(自己编译的)参数也还是能跑。
...
我回去再试下,32b内的量化模型再不想去autodl 租机器了 怪不得这次的5090和5090D没区别呢[偷笑] solder 发表于 2025-3-8 15:16
那个女人是什么梗来着?脑子突然转不过来了,ds也回答不上
难道说的是苏博士? ...
那必须是lisa su啊
页:
[1]
2