vllm [功能]:为openai入口点添加CPU支持

wsewodh2  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(70)

🚀 功能、动机和宣传

我正在使用VLLM来实现CPU SKU的模型推理。最新版本允许在CPU上进行离线批量推理,但是入口点(即vllm.entrypoints.openai.api_server.py和vllm.entrypoints.api_server.py)仅适用于GPU。我想为CPU添加支持以使用这些入口点。

替代方案

  • 无响应*

附加上下文

  • 无响应*
axr492tv

axr492tv1#

看起来openai.api_server以openai的格式提供开源模型,并没有直接使用openai的gpt-3.5模型。我们可能需要进行cpu卸载或其他操作。@sanchez-alex

相关问题