i6wz1l 发表于 2025-2-6 09:34

国内deepseek的api谁的最流畅

官方的目前白给了,api暂停开放,据说已经购买的速度也不理理,硅基流动的api因为这波活动现在难用的一笔,还有那些厂家的api可以考虑的,性价比高的。

自建目前手中的两套配置最高只能跑14b,在等等 amd的395

秦南瓜 发表于 2025-2-6 09:35

2080ti 22G*2 70b永远不亏

wosell 发表于 2025-2-6 09:40

秦南瓜 发表于 2025-2-6 09:35
2080ti 22G*2 70b永远不亏

速度咋样

i6wz1l 发表于 2025-2-6 09:41

秦南瓜 发表于 2025-2-6 09:35
2080ti 22G*2 70b永远不亏

昨天还专门了解了一下这个 显卡成本在4500多,咸鱼买两个送nvlink,但是我bzhan搜了下 速度好像不是特别快,最主要的是 找不到好的购买渠道

yuwl3000 发表于 2025-2-6 09:49

4090 改 48g

kanademoment 发表于 2025-2-6 09:55

正在用这个,跟着学习:https://www.bilibili.com/video/BV1EHFueSEZQ/?spm_id_from=333.1007.top_right_bar_window_custom_collection.content.click&vd_source=0d9a294d343374ab0797644f199c3717

cloudybeyond 发表于 2025-2-6 10:02

kanademoment 发表于 2025-2-6 09:55
正在用这个,跟着学习:https://www.bilibili.com/video/BV1EHFueSEZQ/?spm_id_from=333.1007.top_right_ba ...

广告就别发了

秦南瓜 发表于 2025-2-6 10:03

wosell 发表于 2025-2-6 09:40
速度咋样

哈哈,我还没弄呢,做了几天功课,反正2080ti 22g相当便宜。自己玩玩能跑就行。追求速度是没底的

秦南瓜 发表于 2025-2-6 10:06

i6wz1l 发表于 2025-2-6 09:41
昨天还专门了解了一下这个 显卡成本在4500多,咸鱼买两个送nvlink,但是我bzhan搜了下 速度好像不是特别 ...

捡垃圾是这样的。要靠谱的24G vram就得3090ti起步,因为3090ti之前的不是矿就是魔改。

或者换换思路。4060ti 16G, 4070tisuper 多卡

pdvc 发表于 2025-2-6 10:13

openrouter吧,硅基我测试只有10token/s

ihainan 发表于 2025-2-6 10:16

Nvidia NIM,这两天用 R1 速度很满意,1000 次 API 调用目前也足够了。

我輩樹である 发表于 2025-2-6 10:44

反正我转回chatg p t了,而且下个月准备开200刀的pro。

kanademoment 发表于 2025-2-6 10:53

cloudybeyond 发表于 2025-2-6 10:02
广告就别发了

送你一句话,要像质子一样思考和学习。

连筛选是否是广告的能力都没有,就不要先评论。

— —

内容解决了楼主api用不了用的慢的问题,手把手教你怎么用groq上的70b蒸馏模型

举一反三,还能学习博主怎么解决api区域问题的。

i6wz1l 发表于 2025-2-6 10:56

秦南瓜 发表于 2025-2-6 10:06
捡垃圾是这样的。要靠谱的24G vram就得3090ti起步,因为3090ti之前的不是矿就是魔改。

或者换换思路。40 ...

两个4060ti能连机么,还是依次调用,好像有性能损失?

i6wz1l 发表于 2025-2-6 10:57

yuwl3000 发表于 2025-2-6 09:49
4090 改 48g

咸鱼看了一下 要2w了

cmz118 发表于 2025-2-6 11:28

现在几乎不能正常用的状态,硅基流动帮忙生成个代码卡在半路停了。官方总是崩溃刷不出答案

lz2906190 发表于 2025-2-6 11:52

还是用gemini2.0,deepseek开源了gemini的效率也提了不少。

noirchen 发表于 2025-2-6 12:55

试着用了一下阿里百炼、百度千帆和豆包,感觉豆包的最快,还有思考过程,百炼和千帆没有思考过程,速度一般。现在都有赠送token,可以都试试

惊天大萝卜 发表于 2025-2-6 13:04

泥潭人均5090,配个32B,Q4的本地环境又不是不能用,再说4090这配置都有30 token/s的速度。

manwomans 发表于 2025-2-6 13:09

不用过于追求token生成速度
超过了你的阅读速度,再快也没用了

ltwhu123 发表于 2025-2-6 15:07

noirchen 发表于 2025-2-6 12:55
试着用了一下阿里百炼、百度千帆和豆包,感觉豆包的最快,还有思考过程,百炼和千帆没有思考过程,速度一般 ...

千帆的具体开始提示“抱歉,服务调用异常,请调整后再试。”硅基的也总是出问题,真是废了。。

ukey512 发表于 2025-2-6 15:32

充了ds官方和硅基流动的API,现在都用不了,只能等等

chip_discovery 发表于 2025-2-6 15:43

wosell 发表于 2025-2-6 09:40
速度咋样

2080ti 22g 跑32B 还挺快的,有20tokens 的样子吧,两张2080ti 22g 跑70B我记得看B站别人测试速度挺慢,tokens 只有个位数

devilwalk 发表于 2025-2-6 16:03

groq可以

bennq 发表于 2025-2-6 16:06

满血版nvdia NIM速度最快,比官网快,蒸馏的智商太低就不用了

szjzll 发表于 2025-2-6 16:11

5090D现在还没法本地部署吗

Filter 发表于 2025-2-6 16:40

双3090 作sli是不是目前最平衡的方案?3090ti就算了,性价比不怎么高呀[晕倒]

kaixin_chh 发表于 2025-2-6 17:28

我輩樹である 发表于 2025-2-6 10:44
反正我转回chatg p t了,而且下个月准备开200刀的pro。

我最近也看到别人也是这么操作。

ds是很吊,chatg p t也不差,但是稳定大于一切,所以就买200刀的pro了

厌夜 发表于 2025-2-6 17:30

本帖最后由 厌夜 于 2025-2-6 17:33 编辑

试试百度的,好像是8元还是16元百万token。(我说的是r1)

wosell 发表于 2025-2-6 17:43

chip_discovery 发表于 2025-2-6 15:43
2080ti 22g 跑32B 还挺快的,有20tokens 的样子吧,两张2080ti 22g 跑70B我记得看B站别人测试速度挺慢,t ...

跑推理模型双卡有用么?
页: [1] 2
查看完整版本: 国内deepseek的api谁的最流畅