找回密码
 加入我们
搜索
      
查看: 39287|回复: 85

[软件] 昨天在本地部署了deepseek r1-8b\14b\32b

[复制链接]
发表于 2025-2-1 09:09 | 显示全部楼层 |阅读模式
本帖最后由 loughlion 于 2025-2-1 09:40 编辑

win11,137K 默频,64G D4 3200,2060 12G,试了deepseek r1-8b\14b\32b,
以前没玩过本地化ai模型,暂时只能拿小说测试,8b还挺流畅,14b能感觉明显比8b慢一点,32b就慢得有点难受了,感觉14b是个比较好的平衡点
用32b跑小说的时候,后台查看资源占用,发现cpu占用大约47%~50%,内存占用33%,12G显存占用10.5G,还有给共享显存占用10G。
发表于 2025-2-1 09:12 | 显示全部楼层
我也想玩玩试试,这个吃哪个配置?我149ks、96g 6800c34、4090
发表于 2025-2-1 09:13 | 显示全部楼层
iMARS 发表于 2025-2-1 09:12
我也想玩玩试试,这个吃哪个配置?我149ks、96g 6800c34、4090

你上14b吧,或者32b?
 楼主| 发表于 2025-2-1 09:23 | 显示全部楼层
iMARS 发表于 2025-2-1 09:12
我也想玩玩试试,这个吃哪个配置?我149ks、96g 6800c34、4090

你看我的配置应该能发现,对显卡要求不高,我的2060都能勉强跑得动32b
发表于 2025-2-1 09:31 | 显示全部楼层
所以一般家用电脑本地跑 14/16b的就差不多了
发表于 2025-2-1 09:33 | 显示全部楼层
本帖最后由 chip_discovery 于 2025-2-1 09:35 编辑
iMARS 发表于 2025-2-1 09:12
我也想玩玩试试,这个吃哪个配置?我149ks、96g 6800c34、4090


4090 24G 只能玩32B,70B需要43G显存

PS. 32B 要求显存20G,2080ti 22g 还挺快的
发表于 2025-2-1 09:35 | 显示全部楼层
32b 什么版本?4位量化?
发表于 2025-2-1 09:37 来自手机 | 显示全部楼层
32b爆显存了,所以会很慢
 楼主| 发表于 2025-2-1 09:38 | 显示全部楼层
Miner 发表于 2025-2-1 09:35
32b 什么版本?4位量化?

就ollama提供的32b版本
发表于 2025-2-1 09:47 | 显示全部楼层
本地部署deepseek,这才叫生产力啊, 天天跑小说训练,时间一长,用deepseek写网文,出个爆款,发财了?
 楼主| 发表于 2025-2-1 09:59 | 显示全部楼层
dikuf001 发表于 2025-2-1 09:47
本地部署deepseek,这才叫生产力啊, 天天跑小说训练,时间一长,用deepseek写网文,出个爆款,发财了? ...

指望这个发财等于白日做梦。
只是刚接触这个,不知道能干点啥
发表于 2025-2-1 10:05 | 显示全部楼层
loughlion 发表于 2025-2-1 09:59
指望这个发财等于白日做梦。
只是刚接触这个,不知道能干点啥

不能这么说,只要你真正掌握了使用它的方法,后面产生的生产力,会有你想不到的结果的。
发表于 2025-2-1 10:15 | 显示全部楼层
dikuf001 发表于 2025-2-1 09:47
本地部署deepseek,这才叫生产力啊, 天天跑小说训练,时间一长,用deepseek写网文,出个爆款,发财了? ...

纯靠它写过不了审核的,你以为网文网站审核是吃素的?只能给你提供一些借鉴,你自己拿他慢慢改还凑合。
发表于 2025-2-1 10:26 | 显示全部楼层
请问有教程吗?137K+48G+4070S
发表于 2025-2-1 10:39 | 显示全部楼层
本帖最后由 syringalibra 于 2025-2-1 10:41 编辑
tommyli219 发表于 2025-2-1 10:26
请问有教程吗?137K+48G+4070S


下载LM Studio,搜索deepseek R1,选择适配的模型(有绿色标签即可用)
https://lmstudio.ai/
发表于 2025-2-1 10:40 | 显示全部楼层
智能水平和应用直接提供的免费问答水平有多少不同呢,本地部署又额外做了什么参数设置、模型调整和知识库处理呢?
发表于 2025-2-1 10:41 | 显示全部楼层
我最想知道的是这几个蒸馏模型智力的区别有多大

发表于 2025-2-1 10:42 | 显示全部楼层
4090及以下14B Q6是甜蜜点,再高都肉眼可见的慢了
 楼主| 发表于 2025-2-1 10:54 | 显示全部楼层
syringalibra 发表于 2025-2-1 10:39
下载LM Studio,搜索deepseek R1,选择适配的模型(有绿色标签即可用)
https://lmstudio.ai/ ...

我是用ollama,LM studio和ollama有什么不同呢?
发表于 2025-2-1 11:09 | 显示全部楼层
这些都是蒸馏deepseek r1得到的模型,deepseek r1本身是671B的moe模型。
发表于 2025-2-1 11:50 | 显示全部楼层
loughlion 发表于 2025-2-1 10:54
我是用ollama,LM studio和ollama有什么不同呢?

LM Studio图形界面,设置起来容易一点,比如CPU和GPU的加载分配等等,其他和ollama没什么区别
发表于 2025-2-1 12:02 | 显示全部楼层
我笔记本 12950hx/64G/a4500 16G,跑32b蹦字用的ollama在win11上跑的
发表于 2025-2-1 12:16 | 显示全部楼层
需要AVX2指令集,我这老E5 V2不支持了....
发表于 2025-2-1 12:22 | 显示全部楼层
你这个配置,纯拿cpu跑比显卡快
发表于 2025-2-1 12:42 来自手机 | 显示全部楼层
这个都不是R1吧 都是千问 拿R1蒸馏的
发表于 2025-2-1 12:49 | 显示全部楼层
我拿16G运存的M2的mac mini跑,8b的模型,GPU满载,内存50%,CPU基本不占用资源。
发表于 2025-2-1 13:03 | 显示全部楼层
671B都能跑起来,而且是无蒸馏版
价格不贵,起码比你买5090便宜
屏幕截图 2025-02-01 124321.png
发表于 2025-2-1 13:08 | 显示全部楼层
看上去不错,

晚点用我4张22G RTX2080TI测试一下
 楼主| 发表于 2025-2-1 13:09 | 显示全部楼层
syringalibra 发表于 2025-2-1 11:50
LM Studio图形界面,设置起来容易一点,比如CPU和GPU的加载分配等等,其他和ollama没什么区别 ...

我也用了图形界面,chatbox的,ollama+chatbox会不会比LM Studio资源占用多?要是换LM是不是要收费啊?
发表于 2025-2-1 13:12 | 显示全部楼层
学习一下
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-22 09:23 , Processed in 0.020128 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表