搜索之前先询问
- 我在 issues 中进行了搜索,但没有找到类似的功能需求。
描述
LLM_MODEL=proxyllm
PROXY_API_KEY=893a702dxxxxxxxxxxxxxxxxxxxxxxx675e2
PROXY_API_BASE= https://openai-xxxx-rrrrr-demo.openai.azure.com/
PROXY_API_TYPE=azure
PROXY_SERVER_URL= https://openai-xxxx-rrrrr-demo.openai.azure.com/
PROXY_API_VERSION=2023-05-15
PROXYLLM_BACKEND=gpt-35-turbo-16k
API_AZURE_DEPLOYMENT=gpt-35-turbo-16k
我只是想确认一下,这些配置是否正确?因为我已经配置了 PROXY_API_BASE 和 PROXY_SERVER_URL 是相同的。请给我提供正确的参数配置方式。
文档链接
http://docs.dbgpt.site/docs/installation/advanced_usage/More_proxyllms
你是否愿意提交PR?
- 是的,我愿意提交一个PR!
1条答案
按热度按时间tf7tbtn21#
根据现有的实现,您可以参考谷歌的Proxy Gemini实现过程来实现Azure代理API调用。