os39000 发表于 2025-3-2 15:06

今天成功安装了vllm

1.Intel® Extension for PyTorch* Installation Guide
网址:https://pytorch-extension.intel.com/installation?platform=cpu&version=v2.5.0%2Bcpu&os=linux%2Fwsl2&package=pip
python -m pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu
python -m pip install intel-extension-for-pytorch
python -m pip install oneccl_bind_pt --extra-index-url https://pytorch-extension.intel.com/release-whl/stable/cpu/us/
2.安装vllm
网址:https://docs.vllm.ai/en/latest/getting_started/installation/cpu/index.html


3.开始执行[偷笑]

YsHaNg 发表于 2025-3-2 19:25

docker run --runtime nvidia --gpus all \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HUGGING_FACE_HUB_TOKEN=<secret>" \
    -p 8000:8000 \
    --ipc=host \
    vllm/vllm-openai:latest \

xysquare 发表于 2025-3-2 19:43

这也太麻烦了,喜欢命令行用OLLAMA,喜欢有界面用LM STUDIO不好么

sun3797 发表于 2025-3-2 20:49

vllm才能发挥出硬件的实力,ollama和LMS也只能单用户轻量化用用,多卡并发还得看vllm~~

hcym 发表于 2025-3-2 20:58

怕烦,实体安装steam不成,游戏也就算了吧
[喜欢]

os39000 发表于 2025-3-2 21:31

YsHaNg 发表于 2025-3-2 19:25
docker run --runtime nvidia --gpus all \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
   ...

下次再试试清华方案

os39000 发表于 2025-3-2 21:34

sun3797 发表于 2025-3-2 20:49
vllm才能发挥出硬件的实力,ollama和LMS也只能单用户轻量化用用,多卡并发还得看vllm~~ ...

就是想看看能有多快

os39000 发表于 2025-3-2 21:34

hcym 发表于 2025-3-2 20:58
怕烦,实体安装steam不成,游戏也就算了吧

搞个ladder

iwaitu 发表于 2025-3-2 21:40

昨天刚装了一台志强6338+256GbRAM+H100x2 的服务器,用vllm 跑Qwen 72b,和玩单卡完全是两码事,踩了很多坑

YsHaNg 发表于 2025-3-2 22:11

xysquare 发表于 2025-3-2 11:43
这也太麻烦了,喜欢命令行用OLLAMA,喜欢有界面用LM STUDIO不好么

市面上开源推理框架现在只有vllm实现了FlashMLA 用web前端http方式各种ollama/llama.cpp/transformers都能接入gui

gyc 发表于 2025-3-3 04:25

这个是编译了一个Intel 专用的扩展版本吧? 还是CPU计算的。

KimmyGLM 发表于 2025-3-3 09:26

本帖最后由 KimmyGLM 于 2025-3-3 09:27 编辑

llama.cpp VLLM安装都算简单友好的;

KTransformers 装起来才要命,配套的环境要严格匹配,编译一直出错;
V0.3 更像是一个课题组搞的测试,自己跑通即可,不用管其他部署起来好不好用;
我都快被折磨得抑郁了,他们自己的docker 还没适配0.3
issue里面一大堆稀奇古怪的问题,哎;

os39000 发表于 2025-3-3 18:40

iwaitu 发表于 2025-3-2 21:40
昨天刚装了一台志强6338+256GbRAM+H100x2 的服务器,用vllm 跑Qwen 72b,和玩单卡完全是两码事,踩了很多坑 ...

H100?? 就是NB

os39000 发表于 2025-3-3 18:41

gyc 发表于 2025-3-3 04:25
这个是编译了一个Intel 专用的扩展版本吧? 还是CPU计算的。

对,针对intel cpu优化的,已经编译好的,安装就行

os39000 发表于 2025-3-3 18:42

KimmyGLM 发表于 2025-3-3 09:26
llama.cpp VLLM安装都算简单友好的;

KTransformers 装起来才要命,配套的环境要严格匹配,编译一直出错; ...

我去,我还没开始呢,看看吧,真麻烦就不装了。
早点的版本还好吧?

iwaitu 发表于 2025-3-9 14:36

os39000 发表于 2025-3-3 18:40
H100?? 就是NB



其中一块H100回来两天就出问题了,拿去退换了
页: [1]
查看完整版本: 今天成功安装了vllm