关于vllm的讨论
在使用meta-llama/CodeLlama-7b-Instruct-hf与vllm==0.4.0, torch==2.1.2
时,我遇到了以下错误。代码在vllm==0.2.1
上运行得很好,但我想使用最新版本的vllm以获得更多功能。这似乎是一个微不足道的错误,我已经尝试了重新安装PyTorch、Transformer以及验证CUDA版本等方法。如果能得到任何帮助就太好了!
错误信息:(RayWorkerVllm pid=1842765) ERROR 04-24 09:33:04 ray_utils.py:44] RuntimeError: Cannot find any model weights with 'meta-llama/CodeLlama-7b-Instruct-hf'
1条答案
按热度按时间yqkkidmi1#
跟进:
当我注解掉 load_format 时,代码似乎可以正常工作,这默认为
Using model weights format ['*.safetensors']
,这是预期的吗?