我不知道如何在ollama中检查模型的默认温度。有人能帮忙解决这个问题吗?例如,llama3.1的默认温度是多少?
dfty9e191#
如果设置了默认温度,它将出现在Modelfile的参数中。llama3.1不会:
$ ollama show --parameters llama3.1 stop "<|start_header_id|>" stop "<|end_header_id|>" stop "<|eot_id|>"
对于具有默认温度的模型:
$ ollama show --parameters lstep/neuraldaredevil-8b-abliterated:q8_0 num_ctx 8192 num_keep 24 stop "<|start_header_id|>" stop "<|end_header_id|>" stop "<|eot_id|>" temperature 0.7
p5cysglq2#
感谢您的回复,Rick。我知道我可以通过modelfile设置温度。我有些困惑:
tkqqtvp13#
ollama show --parameters $MODEL | grep temperature
ollama show --parameters llama3.1
temperature
$ ollama run llama3.1 >>> /set parameter temperature 0.7 >>>
或者通过API更改:
$ curl localhost:11434/api/generate -d '{"model":"llama3.1","options":{"temperature":0.7},"prompt":"why is the sky blue?"}'
xxls0lw84#
如果没有为模型设置温度,无论是通过命令行界面(CLI)、模型文件还是在请求中,默认值都是0.8。
z5btuh9x5#
感谢指正。
flvtvl506#
@xugy16 这回答了你的问题吗?
6条答案
按热度按时间dfty9e191#
如果设置了默认温度,它将出现在Modelfile的参数中。llama3.1不会:
对于具有默认温度的模型:
p5cysglq2#
感谢您的回复,Rick。我知道我可以通过modelfile设置温度。我有些困惑:
tkqqtvp13#
ollama show --parameters $MODEL | grep temperature
。如果没有输出,那么模型就没有默认温度。ollama show --parameters llama3.1
没有产生temperature
的输出,因此也没有默认温度。如果没有默认温度,温度就是0。你可以在命令行界面(cli)中更改温度:
或者通过API更改:
xxls0lw84#
如果没有为模型设置温度,无论是通过命令行界面(CLI)、模型文件还是在请求中,默认值都是0.8。
z5btuh9x5#
感谢指正。
flvtvl506#
@xugy16 这回答了你的问题吗?