还没怎么拷问,deepseek就……
本帖最后由 hawie 于 2025-2-9 15:46 编辑无论是在线(671b,硅基流动API),还是本地(14b,本地Ollama),都:
刚开始正常:
随意问了一些别的之后,今天又回到这个问题,意外地变了:
再问,还是:
还是说,ds的数据源自漂亮国那家公司?
[失望]人家最开始做量化的,收割股票市场,转行做这个难免没有什么开源项目的利用。
希望我们的股市和实业也能硬气一把。 补充,m4 mini丐的性能:
ollama run deepseek-r1:14b --verbose
>>> 3.8和3.11哪个大?
total duration: 45.706668042s
load duration: 25.156458ms
prompt eval count: 14 token(s)
prompt eval duration: 4.197s
prompt eval rate: 3.34 tokens/s
eval count: 450 token(s)
eval duration: 41.481s
eval rate: 10.85 tokens/s
另外,测试ds只有2.5及V3以上的671b才能正确回答,“繁”字有多少笔画?(17画)。
ds拿openai的api生成训练数据这是板上钉钉的事 有个疑问,有没有可能提供在线API访问的671b模型,同时允许自行添加知识库?
使用本地部署的14b测试了一下,本地嵌入知识库是可以的,但是671b本地部署还很遥远,目前观望M4 Ultra。 manwomans 发表于 2025-2-9 16:06
ds拿openai的api生成训练数据这是板上钉钉的事
反过来的例子也有 说明了啥呢 据说几个ai巨头都在互相用数据,只不过都会先清洗数据避免出现主贴这种情况,但经常清洗不够,还是会。 本帖最后由 mkkkno1 于 2025-2-9 16:26 编辑
你这个问题在网上出现了好多次了,反过来的例子也挺多的,自己搜索以下呗,或者你用的时候打开联网搜索功能。你同样的问题也被问烂了,论坛里也好多次了;一次次的重复这个,得问问你自己是拿ai来做什么。
【【DeepSeek专场】编剧及各类提示词使用经验与AI应用思考】 https://www.bilibili.com/video/BV1TcNmejEuY/?share_source=copy_web&vd_source=e6c306eca5f2273ce3b68b12a0743826
去研究下这些不好么;
去研究下知识库不好么……
https://www.waytoagi.com/zh 我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。我基于搜索增强的语言模型开发,能够通过联网获取实时信息,并结合多来源知识提供可靠回答。我的能力覆盖通用问答、信息检索、逻辑推理、创意写作等多场景,且始终追求保持专业、友好、简洁的沟通风格。
若您有任何问题需要探讨,我会尽力提供清晰且基于事实的回复。
这个是我开了R1和联网搜索的结果。[偷笑][偷笑][偷笑] 丐版m4 pro mac mini 跑的
本帖最后由 a010301208 于 2025-2-9 16:32 编辑
数据集估计是,算法的话本来就没变过,tensorflow那套目前没人有能力超越
不过优化了不少代码,这东西是开源的可以自己看 有没有可能你部署的回答是来至 通意千问 的?
PS。 顺便说一下,不同平台的量化模型 ,准确度也会有差别, 我试过同一个精度的用CPU和显卡,恢复内容长短不同。 mkkkno1 发表于 2025-2-9 16:18
反过来的例子也有 说明了啥呢
不说明啥啊
字节也用openai生成过训练数据
谷歌也用文心一言生成过
这就是个灰色地带 manwomans 发表于 2025-2-9 16:38
不说明啥啊
字节也用openai生成过训练数据
谷歌也用文心一言生成过
互相蒸馏太正常,左脚右脚互踩,原地升天,哈哈哈! 蒸馏这个东西,不知道咋说
32B问繁的笔画,非说12画,我问它你这个12画出处在哪里?
居然给我3个出处,都是出版的书籍
我就去核对,发现是ds错误的记录,不知道出错原因。
ds原版就没有问题,那蒸馏这个过程出啥幺蛾子了呢 ~〇~ 发表于 2025-2-9 16:44
互相蒸馏太正常,左脚右脚互踩,原地升天,哈哈哈!
理论上肯定不合规
但是一般小公司或者科研机构用了就用了,甲方也懒着管
无非是这次ds太出圈了
openai肯定得出来表态
ds要是要点脸下次就该自己收集训练集了
毕竟作为新兴的头部公司应该起到点模范带头作用 manwomans 发表于 2025-2-9 16:47
理论上肯定不合规
但是一般小公司或者科研机构用了就用了,甲方也懒着管
无非是这次ds太出圈了
你问问openai他们的数据来源合规不合规吧,猜猜为什么openai公司宣布自己是非营利组织,真要合规,openai早被人起诉告没了 manwomans 发表于 2025-2-9 16:47
理论上肯定不合规
但是一般小公司或者科研机构用了就用了,甲方也懒着管
无非是这次ds太出圈了
o3都蒸ds,也不见closeai要点脸 ~〇~ 发表于 2025-2-9 16:51
你问问openai他们的数据来源合规不合规吧,猜猜为什么openai公司宣布自己是非营利组织,真要合规,openai ...
你是不知道openai花了多少钱买训练数据吧
就这还有犄角旮旯的地方起诉他
但他至少是在完善自己的数据合规
ds也应该往这个方面发展 数据来自互联网,openai火的早,问我是谁,网上的数据回答都是openai,用这个数据训练不就是这个答案吗,我觉得没啥,
主要是用pdd的价格完成80%以上的功能,凸显了我们工科男低成本的优势,把差距从几年缩短到几个月,
还是一个民营企业,吊打了一众的硅谷精英+国家资本 ch_hjie 发表于 2025-2-9 17:02
数据来自互联网,openai火的早,问我是谁,网上的数据回答都是openai,用这个数据训练不就是这个答案吗,我 ...
还是人家的副业[偷笑]
数学好的同学,干啥都行,特别是计算机[恶魔] 14B还是太小了
现在在想怎么弄到70B 才够点点用啊
要问2元2次 必须671B了 蒸馏模型就这样,除了用来打鸡血,没什么意义。 不会真有人觉得这东西都是纯原创吧?
manwomans 发表于 2025-2-9 16:56
你是不知道openai花了多少钱买训练数据吧
就这还有犄角旮旯的地方起诉他
但他至少是在完善自己的数据合规 ...
老哥有具体数据哪里可以查么?
前两天还看到meta从annas下了百来t的文档[狂笑] hawie 发表于 2025-2-9 16:12
有个疑问,有没有可能提供在线API访问的671b模型,同时允许自行添加知识库?
使用本地部署的14b测试了一下 ...
你用的本地知识库是哪个? 目前通用大模型其实不太精,生产力AI还是自己炼丹吧,就是训练费人费钱,但是专精小模型部署起来开销小。 本帖最后由 binne 于 2025-2-9 20:59 编辑
“谎言重复一百次就会成为真理”
结合今天的社会环境,应该改一些。
”谎言重复一百次,一旦被主流AI收录,就会成为真理“
因为,铺天盖地的新闻报导已经把AI塑造成了真理。合理看待,AI在进步,10句说对5句,变10句说对6句,... 还要慢慢养。
总结,现阶段不能用AI的言论来证明任何事物。
ch_hjie 发表于 2025-2-9 17:02
数据来自互联网,openai火的早,问我是谁,网上的数据回答都是openai,用这个数据训练不就是这个答案吗,我 ...
但是这样会有个问题,就是只能追赶然后无限接近,很难实现超越。 本帖最后由 binne 于 2025-2-9 21:15 编辑
binne 发表于 2025-2-9 20:57
“谎言重复一百次就会成为真理”
结合今天的社会环境,应该改一些。
Deepseek言论,有理有据
"Chiphell 在用户规模、内容数量、社区互动、影响力和专业性等方面均表现出色,支持其作为 最大的中文电脑测评论坛和社区 的地位"
页:
[1]
2