fengpc
发表于 2024-9-19 08:40
本帖最后由 fengpc 于 2024-9-19 08:42 编辑
CPU多加点内存,成本比大显存GPU低多了,其实跑LLM对速度和精度要求都不高,以后调用AI算力的应用会越来越多
amd和intel的AI PC真要选一个,我觉得选intel还更靠谱一点,至少他的oneAPI和openvino已经可以在windows和linux把npu和集显的算力都调用起来,amd的可用性还是翔一样的
赫敏
发表于 2024-9-19 08:45
照片标签就是一个很好的应用。以前用cpu比较慢现在用npu快一点不好吗?
chopin1998
发表于 2024-9-19 09:06
模型不一定都得是 llm,
还有很多不算太大的神经网络模型,但是用cpu硬刚, 功耗又大又慢, npu刚刚好能跑顺,
dssauska
发表于 2024-9-19 09:12
关键是价格还上天啊 随便一个八九千一万 这还是amd吗
KimmyGLM
发表于 2024-9-19 09:14
HyperSPH 发表于 2024-9-18 19:01
提高U的进货价是需要有故事可讲的。
现在的迷你pc战场已经来到了内置扬声器、麦克风,开展AI对话了 ...
希望AI能帮我代开会,虚拟人偶。。。
winc0
发表于 2024-9-19 09:36
kzfile 发表于 2024-9-19 07:41
如果你推出一个我暂时用不上的功能,成本不高我还能接受,就当是送的。如果成本占大头我就无法接受了。
至 ...
你举得这个例子我觉得不太合适,除非你从不用电脑看任何视频(注意是任何,包括且不限于网上的视频,本地视频,甚至是QQ微信里的视频),否则现在的电脑都是默认调用CPU/核显集成的解码单元硬件解码的
你要说编码单元用不上还有可能,毕竟很多人从来不做视频剪辑,也从不压片
也不在微信群/QQ群里发视频
小尾巴呀
发表于 2024-9-19 09:45
这不是一个技术问题,也不是一个商业问题
而是一个投资问题
ODM知道这玩意儿不聪明,中国区也知道这玩意儿不聪明,股东说不定也知道这玩意儿不聪明,但是整个大盘都需要这个东西罢了
C端AI和之前的VR、元宇宙之类的炒作一样,眼下都是闹剧,热度过去之后才能看出来谁才是真家伙
QYE
发表于 2024-9-19 09:59
存在意义就是开了个头呗,算是一个噱头和卖点,仅此而已。
Troy小法师
发表于 2024-9-19 10:20
feeeei 发表于 2024-9-19 00:56
嗯,好像确实是
在这种轻 AI 应用场景 + 移动端低功耗,NPU 能相较 GPU 再降低一档功耗,确实有一些价值 ...
现在主要是ai应用还是没有那么多,大部分人日常pc也就用个office,浏览器,玩个游戏,用不到什么ai。而且npu性能也就下一代才算真的起来,之前相比gpu完全没法看。
xks07
发表于 2024-9-19 10:22
没什么用,就像手机的NPU。
说AI处理能力说了好几年了。
杀手级应用还没出来。
现在主要就是P图。。。哈哈
AI消除,AI锐化还是有点用的。
ohmygod12121212
发表于 2024-9-19 10:33
跑个llm做问答是足够的,但是现在还没有适配npu的
xyzhangabc
发表于 2024-9-19 10:42
微软要求的,需要有40T+的AI算力。
NPU目前只是APU有,相比于显卡,它肯定是弱的,但是胜在省电,这对笔记本很重要。
微软的想法是AI应用以后融入到电脑的使用中,作为一个接口而不是单独的功能。比如用AI实别语音搜索,用AI优化视频,PS用AI做抠图优化等
lsy174915864
发表于 2024-9-19 10:47
先别管能不能AI,先起个AI的名再说,这就是意义[偷笑]
LocaVoiD
发表于 2024-9-19 10:50
参考VR Ready
liu3yang3715
发表于 2024-9-19 11:28
要说有用,那也没有什么大用。
要说没用,可以看看微软画的大饼,现在还是有那么几款软件和场景的,只是很少。
强调NPU算力,可能主要是比GPU省电吧。
gartour
发表于 2024-9-19 11:51
feeeei 发表于 2024-9-19 00:49
你所说的这几个场景,都是 GPU 能干的比 NPU 更快更好的
而且 CUDA 生态是最好的,算力是远高于现有的这 ...
但是有了npu就不需要独显也能干了。npu算力也会迭代。
FelixIvory
发表于 2024-9-20 03:30
巴特沃斯 发表于 2024-9-19 01:50
stp可能真就为了宣传,halo有可能成为青春版mi300a?但也可能落地就幻灭
那该搞rdna4,反正跳票一年,就该升级的。
rdna3.5就是个跛子。
megathread
发表于 2024-9-20 04:08
有点像ps5盒子上印个8k
用户
发表于 2024-9-20 06:16
本帖最后由 用户 于 2024-9-20 06:20 编辑
赫敏 发表于 2024-9-19 08:45
照片标签就是一个很好的应用。以前用cpu比较慢现在用npu快一点不好吗?
NPU不像CPU,NPU的生态很成问题。通用的照片处理加速我觉得几年之内都做不出来。
CPU开发者写代码,编译,用户运行代码。NPU上的开发者用cuda训练模型,然后1) 用户直接在有cuda支持的本上跑,或者2) 开发者把训练好的模型移植到NPU,用户才能用到NPU上的模型。我觉得大部分的开发者没有精力在训练模型的同时去做2)。有精力做2)的开发者,也会把用户和自己的NPU绑定来实现盈利,如苹果、google。出路只能是NPU和训练卡同构。
炼金术士
发表于 2024-9-20 07:32
第一代性能弱点,但是告诉消费者和开发者有这个功能,未来也有更强的,让生态先建立
看不出本地AI有什么功能?npu比gpu弱太多?
人类的进步就是偷懒,你抓耳挠腮的活,ai都有可能帮你解决
ai融入NPC的例子现在已经有了,mc就有这样的mod,gpu性能本来就吃紧,玩游戏都不够,如何在玩游戏的时候跑ai?
sun3797
发表于 2024-9-20 08:31
没有软件调用 可以忽略,但有比没有好吧,npu不是重点 只是个亮点
af_x_if
发表于 2024-9-20 08:43
FelixIvory 发表于 2024-9-20 03:30
那该搞rdna4,反正跳票一年,就该升级的。
rdna3.5就是个跛子。
那自然是因为换架构跳票一年不够
RDNA出来后还出了数代GCN核显呢,不要把整合想那么容易,而且漏UDNA那次说了,RDNA内存适配有缺陷,每次调整都要大折腾。
459413498
发表于 2024-9-20 09:53
~~溢价~~
MolaMola
发表于 2024-9-20 11:00
你说的那类重型生产力是在AI训练调参方面的应用,是“生产AI”
这类AI CPU是使用已经调好的模型,无论是AI实时降噪,AI去杂物,实时视频美颜这些都能得到加速
还有就是要给投资人看到你有跟着copilot这类的应用在布局的,就是ls说的你得先有
crcrane
发表于 2024-9-20 11:29
看你们的说法,以后AI应用可以不用独显,用带NPU的cpu就行,挺好啊。
带视频硬解码的cpu,有些场合用得就很好。
elvba
发表于 2024-9-20 11:57
不,这个还真的有大用,特别是各种物联网设备,移动端设备,比如现在的摄像头好多都自带人脸识别,这个就是靠专门的 ai 芯片来处理的,不可能靠摄像头自己的 cpu 来计算出来,效率高还省电还便宜,多好,这些场景不需要那么大的算力,也不需要多么高的精度,差不多够用就行
Illidan2004
发表于 2024-9-20 13:34
用户 发表于 2024-9-20 06:16
NPU不像CPU,NPU的生态很成问题。通用的照片处理加速我觉得几年之内都做不出来。
CPU开发者写代码,编译 ...
CUDA模型绝不是最终形态GPU拿去做推理效率不算高做训练可能是很好的
wang52510
发表于 2024-9-20 17:34
gladiator 发表于 2024-9-18 18:57
8845hs的mini pc更新了下驱动任务管理器就出现了NPU
那么请问7840hs有没有?
sekiroooo
发表于 2024-9-20 20:35
微软强推的Copilot+ PC认证需要的处理器是具备NPU(神经网络处理器),且运算能力超过40 TOPS。这一要求是微软为AI PC设定的标准,旨在确保PC能够独立运行AI运算,而不依赖 网络服务器。
Ai hx370是如此,luner lake系列的ultra 200V,高通x eilte 这些SOC就是Copilot+ PC的产物而已。
zerozerone
发表于 2024-9-21 00:46
听故事,别脑补进到故事里出不来了