QAnything支持调用第三方服务器部署的模型,提供url,

uklbhaso  于 5个月前  发布在  其他
关注(0)|答案(7)|浏览(176)

模型没有在本地部署,而是在第三方服务器上部署好了。现在想要使用QAnything将已部署的模型连接进来。

hgqdbh6s

hgqdbh6s1#

补充一下,我想在CPU机器上部署,跳过GPU部署模型阶段,因为模型已经在三方服务器上部署了。

91zkwejq

91zkwejq4#

需要提供类似fastchat的接口。

34gzjxbg

34gzjxbg5#

不支持。从介绍来看似乎支持,但查看源码qanything_kernel/connector/llm/llm_for_openai_api.py后发现实际写死了,只支持OpenAI的模型,即使使用OpenAI的API接口也不行。

pbpqsu0x

pbpqsu0x6#

qanything_kernel/connector/llm/llm_for_openai_api.py这个文件,从93行开始的程序改成下面这样,可以在一些私有模型上运行,例如千问1.5。
else:

对于没有实现的模型,抛出未实现错误

raise NotImplementedError(

f"""num_tokens_from_messages() is not implemented for model {model}. See https://github.com/openai/openai-python/blob/main/chatml.md for information on how messages are converted to tokens."""

)

return self.num_tokens_from_messages(messages, model="gpt-4-0613")

c6ubokkw

c6ubokkw7#

你好,这个问题实现了吗?

相关问题