无
gupuwyp21#
from dbgpt.model.proxy import OpenAILLMClientllm_client = OpenAILLMClient(model_alias="gpt-3.5-turbo-16k")我不想使用OpenAI的API,而是想利用一个本地部署的大型模型(例如:qwen)。
from dbgpt.model.proxy import OpenAILLMClient
llm_client = OpenAILLMClient(model_alias="gpt-3.5-turbo-16k")
我不想使用OpenAI的API,而是想利用一个本地部署的大型模型(例如:qwen)。
qzlgjiam2#
我注意到所有代理的例子都是基于OpenAI的API,谢谢!
xwbd5t1u3#
如果你感兴趣,我建议你查看 dbgpt.model.operators.LLMOperator ,它会根据部署环境自动使用模型。
dbgpt.model.operators.LLMOperator
3条答案
按热度按时间gupuwyp21#
qzlgjiam2#
我注意到所有代理的例子都是基于OpenAI的API,谢谢!
xwbd5t1u3#
如果你感兴趣,我建议你查看
dbgpt.model.operators.LLMOperator
,它会根据部署环境自动使用模型。