今天成功安装了vllm
1.Intel® Extension for PyTorch* Installation Guide网址:https://pytorch-extension.intel.com/installation?platform=cpu&version=v2.5.0%2Bcpu&os=linux%2Fwsl2&package=pip
python -m pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu
python -m pip install intel-extension-for-pytorch
python -m pip install oneccl_bind_pt --extra-index-url https://pytorch-extension.intel.com/release-whl/stable/cpu/us/
2.安装vllm
网址:https://docs.vllm.ai/en/latest/getting_started/installation/cpu/index.html
3.开始执行[偷笑]
docker run --runtime nvidia --gpus all \
-v ~/.cache/huggingface:/root/.cache/huggingface \
--env "HUGGING_FACE_HUB_TOKEN=<secret>" \
-p 8000:8000 \
--ipc=host \
vllm/vllm-openai:latest \ 这也太麻烦了,喜欢命令行用OLLAMA,喜欢有界面用LM STUDIO不好么 vllm才能发挥出硬件的实力,ollama和LMS也只能单用户轻量化用用,多卡并发还得看vllm~~ 怕烦,实体安装steam不成,游戏也就算了吧
[喜欢] YsHaNg 发表于 2025-3-2 19:25
docker run --runtime nvidia --gpus all \
-v ~/.cache/huggingface:/root/.cache/huggingface \
...
下次再试试清华方案 sun3797 发表于 2025-3-2 20:49
vllm才能发挥出硬件的实力,ollama和LMS也只能单用户轻量化用用,多卡并发还得看vllm~~ ...
就是想看看能有多快 hcym 发表于 2025-3-2 20:58
怕烦,实体安装steam不成,游戏也就算了吧
搞个ladder 昨天刚装了一台志强6338+256GbRAM+H100x2 的服务器,用vllm 跑Qwen 72b,和玩单卡完全是两码事,踩了很多坑 xysquare 发表于 2025-3-2 11:43
这也太麻烦了,喜欢命令行用OLLAMA,喜欢有界面用LM STUDIO不好么
市面上开源推理框架现在只有vllm实现了FlashMLA 用web前端http方式各种ollama/llama.cpp/transformers都能接入gui 这个是编译了一个Intel 专用的扩展版本吧? 还是CPU计算的。 本帖最后由 KimmyGLM 于 2025-3-3 09:27 编辑
llama.cpp VLLM安装都算简单友好的;
KTransformers 装起来才要命,配套的环境要严格匹配,编译一直出错;
V0.3 更像是一个课题组搞的测试,自己跑通即可,不用管其他部署起来好不好用;
我都快被折磨得抑郁了,他们自己的docker 还没适配0.3
issue里面一大堆稀奇古怪的问题,哎;
iwaitu 发表于 2025-3-2 21:40
昨天刚装了一台志强6338+256GbRAM+H100x2 的服务器,用vllm 跑Qwen 72b,和玩单卡完全是两码事,踩了很多坑 ...
H100?? 就是NB gyc 发表于 2025-3-3 04:25
这个是编译了一个Intel 专用的扩展版本吧? 还是CPU计算的。
对,针对intel cpu优化的,已经编译好的,安装就行 KimmyGLM 发表于 2025-3-3 09:26
llama.cpp VLLM安装都算简单友好的;
KTransformers 装起来才要命,配套的环境要严格匹配,编译一直出错; ...
我去,我还没开始呢,看看吧,真麻烦就不装了。
早点的版本还好吧? os39000 发表于 2025-3-3 18:40
H100?? 就是NB
其中一块H100回来两天就出问题了,拿去退换了
页:
[1]