找回密码
 加入我们
搜索
      
楼主: i6wz1l

[装机] 最近我想本地部署deepseek真是魔怔了,大家看看这个跑70b模型速度怎么样

[复制链接]
发表于 2025-2-7 10:55 | 显示全部楼层
除非是马上拿来当生产力赚钱 不然不值得折腾
发表于 2025-2-7 11:19 来自手机 | 显示全部楼层
i6wz1l 发表于 2025-2-7 10:48
api买了好几个没一个速度快的,官方的买了,硅基流动买了

openrouter看看,有快的
发表于 2025-2-7 11:22 | 显示全部楼层
可能需要128的内寸会好一些...
发表于 2025-2-7 11:38 | 显示全部楼层
h125445797 发表于 2025-2-7 11:22
可能需要128的内寸会好一些...

M4 mini Pro 最大的也就是64G ,只能等着 M4 Ultra 是否有了。笔记本是M4 Max 内存带宽要比pro大。

发表于 2025-2-7 12:47 | 显示全部楼层
你应该买m2 ultra吧 192GB版本的mac studio吧 我感觉目前性价比最高的 可以跑671b的
https://www.bilibili.com/video/BV1BZF5e8Em3/
发表于 2025-2-7 13:32 | 显示全部楼层
阳光技师 发表于 2025-2-7 10:04
自己部署不是为了自己训练吗?或者生成一些用自己的算力的东西,比如图片,视频。虚心请教,自己本地部署 ...

自己部署 是为了保密和保护个人隐私
反正现在好多小工作室和小公司自己内网AI全是用这个当理由
发表于 2025-2-7 13:42 | 显示全部楼层
本地部署毫无意义
发表于 2025-2-7 13:48 | 显示全部楼层
mac可以淘宝买,定制配置,价格差不多官网77折
发表于 2025-2-7 13:53 | 显示全部楼层
家用就32B吧,70B代价太大了
发表于 2025-2-7 13:57 | 显示全部楼层
本帖最后由 pooChai 于 2025-2-7 14:02 编辑

捡洋垃圾, cpu挑核多的,内存挑单根容量大的尽量插满, 671b的模型 fp8精度 6百多G 一台单机就能组出来, 这一套比显卡便宜太多太多了, token的生成速度个人用肯定是够了适合自己玩 , llama.cpp用cpu跑推理也不慢
发表于 2025-2-7 13:57 来自手机 | 显示全部楼层
家用ai搭建真的有啥用么
发表于 2025-2-7 13:59 | 显示全部楼层
用多卡解决吧,支持多卡的
发表于 2025-2-7 14:01 | 显示全部楼层
不是从业者花那冤枉钱干嘛,买现成的服务吧,linkai或者硅基流动这种就行了,充点钱够用。
官方的太卡了
发表于 2025-2-7 14:04 | 显示全部楼层
其实可以去租云上的gpu平台试试。
发表于 2025-2-7 14:16 | 显示全部楼层
屏幕截图 2025-02-07 141511.jpg
发表于 2025-2-7 14:30 | 显示全部楼层
pdvc 发表于 2025-2-7 10:09
对,但速度不慢,可以接受。

另外该试过1.58bit量化的完整版,96GB内存加128GB虚拟内存跑的,只有2token ...

刚从Toppc那边看批量更新了内存兼容性,48G*2 / *4 D5套条估计年后开始批量上市了,QVL清单里多了一大串。
后面家用平台 192G 插满+4090 D/ 5090D 来跑70B 应该比较容易接受,全量化版本的1.58B估计还是不太行。
发表于 2025-2-7 14:41 | 显示全部楼层
KimmyGLM 发表于 2025-2-7 14:30
刚从Toppc那边看批量更新了内存兼容性,48G*2 / *4 D5套条估计年后开始批量上市了,QVL清单里多了一大串 ...

Toppc Lin? 请问具体是哪里
发表于 2025-2-7 14:43 | 显示全部楼层
Miner 发表于 2025-2-7 14:41
Toppc Lin? 请问具体是哪里


微星林大啊, 去他B站看动态就行。
去年12月就已经展示了192G 插满X870E 并正常用了,而且可以跑5600
发表于 2025-2-7 15:20 | 显示全部楼层
KimmyGLM 发表于 2025-2-7 14:43
微星林大啊, 去他B站看动态就行。
去年12月就已经展示了192G 插满X870E 并正常用了,而且可以跑5600 ...

谢谢,看到那个视频了。最近在关注华硕 B850M,这板子 QVL 内存不太多
发表于 2025-2-7 16:47 | 显示全部楼层
秦南瓜 发表于 2025-2-7 10:06
我也是为了deepseek 70b,刚买300a,满供电,三星显存,5接口,顶部供电,dell涡轮两张,送nvlink
等到货 ...

我记得魔改的2080Ti之前大概在3200左右
发表于 2025-2-7 17:17 来自手机 | 显示全部楼层
Sinner 发表于 2025-2-7 16:47
我记得魔改的2080Ti之前大概在3200左右

2080ti涡轮 最低跌到过15xx
发表于 2025-2-7 17:32 来自手机 | 显示全部楼层
lz2906190 发表于 2025-2-7 02:01
免费的Gemini2.0 flash think 跑到飞快,你自己部署相同效果不得个千八百万。

flash版用r1 70b就能打过 上周五出的李飞飞斯坦福s1更是只需要32b
发表于 2025-2-7 17:45 | 显示全部楼层
mac mini m4不是好的选择,可以说是比较糟糕的选择 。

花16000 你用epyc 7003 早就可以运行685B. 你买这个mac mini 离685B 估计还差几个 16000。
epyc 7003内存带宽都和统一内存的mac mini 差不多了...
发表于 2025-2-7 17:46 来自手机 | 显示全部楼层
人菜瘾大

评分

参与人数 1邪恶指数 -100 收起 理由
kthlon -100

查看全部评分

发表于 2025-2-7 17:47 来自手机 | 显示全部楼层
这些其实并不成熟,花大价钱购买硬件,不值当
发表于 2025-2-7 17:53 | 显示全部楼层
wqxlcdymqc 发表于 2025-2-7 13:48
mac可以淘宝买,定制配置,价格差不多官网77折

有推荐靠谱店铺吗?
发表于 2025-2-7 17:58 来自手机 | 显示全部楼层
i6wz1l 发表于 2025-2-7 02:48
api买了好几个没一个速度快的,官方的买了,硅基流动买了

欧洲本土用户少https://nebius.com/blog/posts/deepseek-r1-v3-chinese-ai-new-year-started-early
发表于 2025-2-7 17:59 | 显示全部楼层
archxm 发表于 2025-2-7 17:47
这些其实并不成熟,花大价钱购买硬件,不值当

应该就是想买个mac mini 玩玩,其他是借口罢了
 楼主| 发表于 2025-2-7 21:11 | 显示全部楼层
暂时是猫 发表于 2025-2-7 17:59
应该就是想买个mac mini 玩玩,其他是借口罢了

我其实买过两个 mac mini的乞丐版本了 都是用了几天就卖了
发表于 2025-2-7 21:53 | 显示全部楼层
本地部署毫无意义+1
你API都觉得慢本地部署更慢,要是快那精度早都没眼看了
最后搞半天还被免费的gemini暴打
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-22 09:37 , Processed in 0.014541 second(s), 10 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表