找回密码
 加入我们
搜索
      
查看: 5272|回复: 43

[软件] 还没怎么拷问,deepseek就……

[复制链接]
发表于 2025-2-9 15:46 | 显示全部楼层 |阅读模式
本帖最后由 hawie 于 2025-2-9 15:46 编辑

无论是在线(671b,硅基流动API),还是本地(14b,本地Ollama),都:
刚开始正常:
截屏2025-02-09 15.37.20.png
截屏2025-02-09 15.41.39.png

随意问了一些别的之后,今天又回到这个问题,意外地变了:
截屏2025-02-09 15.36.19.png
再问,还是:
截屏2025-02-09 15.34.52.png

还是说,ds的数据源自漂亮国那家公司?



发表于 2025-2-9 15:50 | 显示全部楼层
人家最开始做量化的,收割股票市场,转行做这个难免没有什么开源项目的利用。
希望我们的股市和实业也能硬气一把。
 楼主| 发表于 2025-2-9 15:58 | 显示全部楼层
补充,m4 mini丐的性能:
ollama run deepseek-r1:14b --verbose
>>> 3.8和3.11哪个大?
total duration:       45.706668042s
load duration:        25.156458ms
prompt eval count:    14 token(s)
prompt eval duration: 4.197s
prompt eval rate:     3.34 tokens/s
eval count:           450 token(s)
eval duration:        41.481s
eval rate:            10.85 tokens/s

另外,测试ds只有2.5及V3以上的671b才能正确回答,“繁”字有多少笔画?(17画)。
发表于 2025-2-9 16:06 | 显示全部楼层
ds拿openai的api生成训练数据这是板上钉钉的事
 楼主| 发表于 2025-2-9 16:12 | 显示全部楼层
有个疑问,有没有可能提供在线API访问的671b模型,同时允许自行添加知识库?
使用本地部署的14b测试了一下,本地嵌入知识库是可以的,但是671b本地部署还很遥远,目前观望M4 Ultra。
发表于 2025-2-9 16:18 | 显示全部楼层
manwomans 发表于 2025-2-9 16:06
ds拿openai的api生成训练数据这是板上钉钉的事

反过来的例子也有 说明了啥呢
发表于 2025-2-9 16:18 | 显示全部楼层
据说几个ai巨头都在互相用数据,只不过都会先清洗数据避免出现主贴这种情况,但经常清洗不够,还是会。
发表于 2025-2-9 16:23 | 显示全部楼层
本帖最后由 mkkkno1 于 2025-2-9 16:26 编辑

你这个问题在网上出现了好多次了,反过来的例子也挺多的,自己搜索以下呗,或者你用的时候打开联网搜索功能。你同样的问题也被问烂了,论坛里也好多次了;一次次的重复这个,得问问你自己是拿ai来做什么。

【【DeepSeek专场】编剧及各类提示词使用经验与AI应用思考】 https://www.bilibili.com/video/B ... 73ce3b68b12a0743826

去研究下这些不好么;
去研究下知识库不好么……

https://www.waytoagi.com/zh
发表于 2025-2-9 16:24 | 显示全部楼层
我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。我基于搜索增强的语言模型开发,能够通过联网获取实时信息,并结合多来源知识提供可靠回答。我的能力覆盖通用问答、信息检索、逻辑推理、创意写作等多场景,且始终追求保持专业、友好、简洁的沟通风格。

若您有任何问题需要探讨,我会尽力提供清晰且基于事实的回复。



这个是我开了R1和联网搜索的结果。
发表于 2025-2-9 16:27 | 显示全部楼层
丐版m4 pro mac mini 跑的

IMG2671.jpg
发表于 2025-2-9 16:28 | 显示全部楼层
本帖最后由 a010301208 于 2025-2-9 16:32 编辑

数据集估计是,算法的话本来就没变过,tensorflow那套目前没人有能力超越

不过优化了不少代码,这东西是开源的可以自己看
发表于 2025-2-9 16:30 | 显示全部楼层
有没有可能你部署的回答是来至 通意千问 的?

PS。 顺便说一下,不同平台的量化模型 ,准确度也会有差别, 我试过同一个精度的用CPU和显卡,恢复内容长短不同。
发表于 2025-2-9 16:38 | 显示全部楼层
mkkkno1 发表于 2025-2-9 16:18
反过来的例子也有 说明了啥呢

不说明啥啊
字节也用openai生成过训练数据
谷歌也用文心一言生成过
这就是个灰色地带
发表于 2025-2-9 16:44 | 显示全部楼层
manwomans 发表于 2025-2-9 16:38
不说明啥啊
字节也用openai生成过训练数据
谷歌也用文心一言生成过

互相蒸馏太正常,左脚右脚互踩,原地升天,哈哈哈!
发表于 2025-2-9 16:45 | 显示全部楼层
蒸馏这个东西,不知道咋说
32B问繁的笔画,非说12画,我问它你这个12画出处在哪里?
居然给我3个出处,都是出版的书籍
我就去核对,发现是ds错误的记录,不知道出错原因。
ds原版就没有问题,那蒸馏这个过程出啥幺蛾子了呢
发表于 2025-2-9 16:47 | 显示全部楼层
~〇~ 发表于 2025-2-9 16:44
互相蒸馏太正常,左脚右脚互踩,原地升天,哈哈哈!

理论上肯定不合规
但是一般小公司或者科研机构用了就用了,甲方也懒着管
无非是这次ds太出圈了
openai肯定得出来表态
ds要是要点脸下次就该自己收集训练集了
毕竟作为新兴的头部公司应该起到点模范带头作用
发表于 2025-2-9 16:51 | 显示全部楼层
manwomans 发表于 2025-2-9 16:47
理论上肯定不合规
但是一般小公司或者科研机构用了就用了,甲方也懒着管
无非是这次ds太出圈了


你问问openai他们的数据来源合规不合规吧,猜猜为什么openai公司宣布自己是非营利组织,真要合规,openai早被人起诉告没了
发表于 2025-2-9 16:55 | 显示全部楼层
manwomans 发表于 2025-2-9 16:47
理论上肯定不合规
但是一般小公司或者科研机构用了就用了,甲方也懒着管
无非是这次ds太出圈了

o3都蒸ds,也不见closeai要点脸
发表于 2025-2-9 16:56 | 显示全部楼层
~〇~ 发表于 2025-2-9 16:51
你问问openai他们的数据来源合规不合规吧,猜猜为什么openai公司宣布自己是非营利组织,真要合规,openai ...

你是不知道openai花了多少钱买训练数据吧
就这还有犄角旮旯的地方起诉他
但他至少是在完善自己的数据合规
ds也应该往这个方面发展
发表于 2025-2-9 17:02 | 显示全部楼层
数据来自互联网,openai火的早,问我是谁,网上的数据回答都是openai,用这个数据训练不就是这个答案吗,我觉得没啥,
主要是用pdd的价格完成80%以上的功能,凸显了我们工科男低成本的优势,把差距从几年缩短到几个月,
还是一个民营企业,吊打了一众的硅谷精英+国家资本
发表于 2025-2-9 17:05 | 显示全部楼层
ch_hjie 发表于 2025-2-9 17:02
数据来自互联网,openai火的早,问我是谁,网上的数据回答都是openai,用这个数据训练不就是这个答案吗,我 ...

还是人家的副业
数学好的同学,干啥都行,特别是计算机
发表于 2025-2-9 19:53 | 显示全部楼层
14B还是太小了

现在在想怎么弄到70B 才够点点用啊

要问2元2次 必须671B了
发表于 2025-2-9 20:06 | 显示全部楼层
蒸馏模型就这样,除了用来打鸡血,没什么意义。
发表于 2025-2-9 20:08 | 显示全部楼层
不会真有人觉得这东西都是纯原创吧?
发表于 2025-2-9 20:09 | 显示全部楼层
manwomans 发表于 2025-2-9 16:56
你是不知道openai花了多少钱买训练数据吧
就这还有犄角旮旯的地方起诉他
但他至少是在完善自己的数据合规 ...

老哥有具体数据哪里可以查么?
前两天还看到meta从annas下了百来t的文档
发表于 2025-2-9 20:44 | 显示全部楼层
hawie 发表于 2025-2-9 16:12
有个疑问,有没有可能提供在线API访问的671b模型,同时允许自行添加知识库?
使用本地部署的14b测试了一下 ...

你用的本地知识库是哪个?
发表于 2025-2-9 20:48 | 显示全部楼层
目前通用大模型其实不太精,生产力AI还是自己炼丹吧,就是训练费人费钱,但是专精小模型部署起来开销小。
发表于 2025-2-9 20:57 | 显示全部楼层
本帖最后由 binne 于 2025-2-9 20:59 编辑

“谎言重复一百次就会成为真理”
结合今天的社会环境,应该改一些。

”谎言重复一百次,一旦被主流AI收录,就会成为真理“
因为,铺天盖地的新闻报导已经把AI塑造成了真理。合理看待,AI在进步,10句说对5句,变10句说对6句,... 还要慢慢养。

总结,现阶段不能用AI的言论来证明任何事物。


发表于 2025-2-9 21:01 来自手机 | 显示全部楼层
ch_hjie 发表于 2025-2-9 17:02
数据来自互联网,openai火的早,问我是谁,网上的数据回答都是openai,用这个数据训练不就是这个答案吗,我 ...

但是这样会有个问题,就是只能追赶然后无限接近,很难实现超越。
发表于 2025-2-9 21:13 | 显示全部楼层
本帖最后由 binne 于 2025-2-9 21:15 编辑
binne 发表于 2025-2-9 20:57
“谎言重复一百次就会成为真理”
结合今天的社会环境,应该改一些。


Deepseek言论,有理有据

"Chiphell 在用户规模、内容数量、社区互动、影响力和专业性等方面均表现出色,支持其作为 最大的中文电脑测评论坛和社区 的地位"
DS_chiphell2.png
DS_chiphell1.png
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-22 12:21 , Processed in 0.015592 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表