我刚开始玩chatgpt API,想知道我怎么能收到类似于网络上的响应段落?
下面是一个示例:
s = "Who is Harry Potter?"
response = openai.Completion.create(model="text-davinci-003", prompt=s, temperature=0, max_tokens=7)
print(response)
这将输出:
"choices": [
{
"finish_reason": "length",
"index": 0,
"logprobs": null,
"text": "\n\nHarry Potter is a fictional"
}
但在openai网站上,它给出了一个很好的段落,总结了我的问题。
有没有人知道网站的temperature
和max_tokens
参数是什么,所以我可以通过他们的API来模拟它?
1条答案
按热度按时间ymdaylpp1#
您使用的是Text Davinci 003,这不是ChatGPT运行的内容。
ChatGPT运行在3.5 Turbo上。
As per documentation,您可以尝试使用GPT 3.5 turbo。(There are multiple versions too)
话虽如此
你不太可能得到完全相同的结果(或者如果您运行相同的查询两次),因为LLM是一种非确定性解决方案,这意味着相同的输入每次将返回不同的结果(除非他们采用了某种我不知道的缓存)。此外,ChatGPT不断更新使用更新版本的3.5涡轮增压(你可以在聊天页面的底部看到他们运行的版本)。所以你可能会运行一个与他们使用的版本不同的3.5 turbo。
More on non-deterministic algorithms