RX7900XTX & DeepSeek
本帖最后由 可以抱的萝卜 于 2025-1-30 00:37 编辑RX7900XTX即将成为抢手货?[狂笑]
https://s21.ax1x.com/2025/01/30/pEVRHns.jpg
APU最低8700G/8600G起步,显卡最低RX7600起步
https://s21.ax1x.com/2025/01/30/pEVWe3D.png 抓住机遇炒一波是吧[偷笑] 这几个蒸馏出来的模型还是很弱智…… 农企倒是会抓住机会炒一波啊 那真是阖家欢乐了 7840 32G都行,应该是最便宜了。。。 太好了,期待能有AMD核显能跑得动的AI视频插帧方案出来 6950XT能跑吗?我下载一个本地部署试试? fangl2002 发表于 2025-1-30 01:51
6950XT能跑吗?我下载一个本地部署试试?
不清楚
https://community.amd.com/t5/ai/experience-the-deepseek-r1-distilled-reasoning-models-on-amd/ba-p/740593 ds小模型没啥用吧,还是直接用api比较好,除非本地部署671b 给AMD蹭完了 amd就算了吧,各种bug 部署32b不爆显存? af_x_if 发表于 2025-1-30 08:23
部署32b不爆显存?
卸载部分到内存吧 应该能用 这是蒸馏版,不是原版,没啥用,别瞎炒 蒸馏的本体还是qwen啊 deepseek当老师而已 不同于现实世界语境的老师 蒸馏后的学生上限无法超过老师的 459413498 发表于 2025-1-30 10:12
蒸馏的本体还是qwen啊 deepseek当老师而已 不同于现实世界语境的老师 蒸馏后的学生上限无法超过老师的 ...
qwen写东西比ds强 9070XT性能接近7900XTX,可配的显存只有16G[震惊] ollama 32b 实测用16g 的3070移动版 可以跑,有点慢一秒3 4 个字,反正笔记本可以跑不错 cpu 用70% 内存32g 吃到15g 显存基本全部吃完 fangl2002 发表于 2025-1-30 01:51
6950XT能跑吗?我下载一个本地部署试试?
官方说支持nv和amd 讲个笑话,24.12.1驱动之前,装了当月驱动的amd显卡有大几率只能用cpu进行推理,gpu摆烂躺平。
当然,能用的时候确实很好用,llama, gemini, phi, qwen, deepseek提示词突突突地往外冒。 嘛二手可以卖多一丢丢啦? 可以抱的萝卜 发表于 2025-1-30 01:54
不清楚
https://community.amd.com/t5/ai/experience-the-deepseek-r1-distilled-reasoning-models-on-am ...
没有看到测试有6950XT,我在等等看后续 mkkkno1 发表于 2025-1-30 11:56
官方说支持nv和amd
明天上班拉,没空玩了,哎。等休礼拜假在玩了 给NV用的是vulkan llama.cpp吗? 转:AMD非常兴奋的发布了旗下RX7900XTX消费级显卡在部署DeepSeek蒸馏小模型上和英伟达同级别显卡的速度差异 [并不简单]
结果显示7900XTX大幅领先4080SUPER,除32B模型外,其他模型均小幅领先4090
要知道7900XTX价格比4080SUPER还低,只有4090的一半不到。部署顶尖AI大模型再也不是CUDA的专利了 [酷]
deepseek应该要吃官司了,打输要赔倾家荡产
页:
[1]