System Info / 系统信息
在Windows系统中通过Docker启动xinference时,需要将D盘模型存储位置与xinference对应的WSL存储位置/rootMap。首先在PyCharm中注册自定义模型,然后在custom-glm4-chat.json中定义模型路径。注册通过后,启动模型。如果出现报错,可能是因为WSL下的Linux路径无法与Windows的模型路径对应。
Running Xinference with Docker? / 是否使用 Docker 运行 Xinfernece?
- docker:是的,可以使用Docker运行Xinference。
- pip install:不建议使用pip install安装,因为可能会导致依赖问题。建议从源码安装。
Version info / 版本信息
xinference, version 0.13.0
The command used to start Xinference / 用以启动 xinference 的命令
在Windows系统中通过Docker启动xinference的命令如下:
docker run -e XINFERENCE_MODEL_SRC=modelscope -v D:/Pretrainedmodels3/ZhipuAI:/root -v D:/Pretrainedmodels3/ZhipuAI/.cache/huggingface:/root/.cache/huggingface -v D:/Pretrainedmodels3/ZhipuAI/.cache/modelscope:/root/.cache/modelscope -p 9997:9997 --gpus all xprobe/xinference:latest xinference-local -H 0.0.0.0 --log-level debug
1条答案
按热度按时间yws3nbqq1#
在Docker内部,需要使用Docker内部的路径。