找回密码
 加入我们
搜索
      
查看: 4576|回复: 3

[系统软件] AMD带来本地运行LLM, 可构建专属AI聊天机器人

[复制链接]
发表于 2024-3-7 21:24 | 显示全部楼层 |阅读模式
继英伟达发布Chat with RTX以后,AMD现在也为用户带来了可以本地化运行基于**的大语言模型(LLM),用户可以此构建专属的AI聊天机器人,可以在具有XDNA NPU的Ryzen 7000/8000系列及内置AI加速核心的Radeon RX 7000系列GPU设备上运行,需要下载对应版本的LM Studio。

AMD_Ryzen_AI_T.jpg

AMD表示,人工智能助手正迅速成为帮助提高生产力、效率甚至集思广益的重要来源。在用户自己设备的本地AI聊天机器人不仅不需要互联网连接,而且对话可以保留在本地系统上。

AMD在博客文章中提供了完整的运行步骤,并有具体的用例说明:如果想运行Mistral 7b,搜索“TheBloke/OpenHermes-2.5-Mistral-7B-GGUF”,例子中使用的是Mistral;如果想运行LLAMA v2 7b,搜索“TheBloke/Llama-2-7B-Chat-GGUF”,并从左侧结果中选择,通常是第一个结果。

AMD_LLM_1.jpg

AMD_LLM_2.jpg

AMD_LLM_3.jpg

AMD_LLM_4.jpg

感兴趣的AMD用户,如果有使用相应的CPU或GPU,可以参照原文进一步了解,按照相应的说明进行操作。

竞争对手英伟达是在上个月发布了Chat with RTX,作为一个技术演示应用,可以让用户以自己的内容定制一个聊天机器人,结合了检索增强生成、TensorRT-LLM和NVIDIA RTX加速技术。用户可以把PC上的本地文件作为数据集连接到开源的LLM,比如Mistral或Llama 2上,支持.txt,.pdf,.doc/docx,.xml等多种文件类型,只需要给出文件夹路径,AI就会在数秒内把它们加载到库中。

https://www.expreview.com/92668.html

评分

参与人数 1邪恶指数 +20 收起 理由
灯下狐 + 20

查看全部评分

发表于 2024-3-8 08:52 | 显示全部楼层
太好了。回头下一个试试
发表于 2024-3-8 09:18 来自手机 | 显示全部楼层
多了一种选择
发表于 2024-3-8 12:44 | 显示全部楼层
至少AMD这边看上去能让人选模型,NVIDIA带的那个也太垃圾了……
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-2-8 23:57 , Processed in 0.008982 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表