如何检查在Ollama中的模型的默认温度?

i7uaboj4  于 22天前  发布在  其他
关注(0)|答案(6)|浏览(22)

我不知道如何在ollama中检查模型的默认温度。有人能帮忙解决这个问题吗?例如,llama3.1的默认温度是多少?

dfty9e19

dfty9e191#

如果设置了默认温度,它将出现在Modelfile的参数中。llama3.1不会:

$ ollama show --parameters llama3.1
stop                           "<|start_header_id|>"
stop                           "<|end_header_id|>"
stop                           "<|eot_id|>"

对于具有默认温度的模型:

$ ollama show --parameters lstep/neuraldaredevil-8b-abliterated:q8_0
num_ctx                        8192
num_keep                       24
stop                           "<|start_header_id|>"
stop                           "<|end_header_id|>"
stop                           "<|eot_id|>"
temperature                    0.7
p5cysglq

p5cysglq2#

感谢您的回复,Rick。我知道我可以通过modelfile设置温度。我有些困惑:

  1. 是否有任何命令或配置文件可以让我检查温度?
  2. 如果我只是使用默认的llama3.1:latest,那么默认值是0.7还是0.8?
tkqqtvp1

tkqqtvp13#

  1. ollama show --parameters $MODEL | grep temperature 。如果没有输出,那么模型就没有默认温度。
  2. 不适用。命令 ollama show --parameters llama3.1 没有产生 temperature 的输出,因此也没有默认温度。
    如果没有默认温度,温度就是0。你可以在命令行界面(cli)中更改温度:
$ ollama run llama3.1
>>> /set parameter temperature 0.7
>>>

或者通过API更改:

$ curl localhost:11434/api/generate -d '{"model":"llama3.1","options":{"temperature":0.7},"prompt":"why is the sky blue?"}'
xxls0lw8

xxls0lw84#

如果没有为模型设置温度,无论是通过命令行界面(CLI)、模型文件还是在请求中,默认值都是0.8。

flvtvl50

flvtvl506#

@xugy16 这回答了你的问题吗?

相关问题