vllm 安装:Docker镜像(ROCm版本)问题

hgc7kmma  于 2个月前  发布在  Docker
关注(0)|答案(1)|浏览(63)

当前环境信息如下:

  • PyTorch 版本:2.3.1+rocm6.0
  • 是否为调试构建:否
  • 用于构建 PyTorch 的 CUDA:N/A
  • 用于构建 PyTorch 的 ROCM:6.0.32830-d62f6a171
  • 操作系统:Ubuntu 22.04.4 LTS (x86_64)
  • GCC 版本:(Ubuntu 11.4.0-1ubuntu1~22.04) 11.4.0
  • Clang 版本:无法收集
  • CMake 版本:无法收集
  • Libc 版本:glibc-2.35
  • Python 版本:3.10.12(main, Mar 22 2024, 16:50:05) [GCC 11.4.0] (64-bit runtime)
  • Python platform:Linux-5.15.153.1-microsoft-standard-WSL2-x86_64-with-glibc2.35
  • Is CUDA 可用:否
  • CUDA runtime版本:无
  • CUDA_MODULE_LOADING:未设置
  • GPU模型和配置:无 CUDA
  • Nvidia驱动版本:无 CUDA
  • cuDNN版本:无 CUDA
  • HIP运行时版本:N/A
  • MIOpen运行时版本:N/A
  • XNNPACK是否可用:是
    错误:无法解决:进程 "/bin/sh -c pip install -U -r requirements-rocm.txt && case "$(ls /opt | grep -Po 'rocm-[0-9].[0-9]')" in "rocm-6.1") wget -N https://github.com/ROCm/vllm/raw/fa78403/rocm_patch/libamdhip64.so.6 -P /opt/rocm/lib && rm -f "$(python3 -c 'import torch; print(torch.path[0])')"/lib/libamdhip64.so* || true;; *) ;; esac && python3 setup.py clean --all && python3 setup.py develop" 没有成功完成:退出代码:1
eanckbw9

eanckbw91#

请尝试在 vllm 仓库中构建。在 vllm 仓库中有 requirements-rocm.txt。
您可以在 Dockerfile.rocm 中看到 COPY 命令。这个命令将 requirements-rocm.txt 复制到容器中。

相关问题