ollama 如何让模型为相同的提示产生一致且稳定的结果?

bfrts1fy  于 4个月前  发布在  其他
关注(0)|答案(1)|浏览(41)

问题是什么?

正如标题所示,我的目标是确保模型对于相同的提示产生一致且稳定的输出。
我使用ollama-python库API调用原生gemma2:9b docker。我已经明确地将温度修改为0并在Options中设置了一个固定的种子,但我发现这不起作用。模型仍然在多次调用时产生不同的结果。
我使用它的方式有问题吗?有人遇到过同样的问题吗?

操作系统

Linux

GPU

Nvidia

CPU

Intel

Ollama版本

Ollama版本是0.2.1

ddrv8njm

ddrv8njm1#

在这里也是一样。在modelfile中添加'PARAMETER temperature 0.0 '不起作用。

相关问题