正如标题所示,我的目标是确保模型对于相同的提示产生一致且稳定的输出。我使用ollama-python库API调用原生gemma2:9b docker。我已经明确地将温度修改为0并在Options中设置了一个固定的种子,但我发现这不起作用。模型仍然在多次调用时产生不同的结果。我使用它的方式有问题吗?有人遇到过同样的问题吗?
Linux
Nvidia
Intel
Ollama版本是0.2.1
ddrv8njm1#
在这里也是一样。在modelfile中添加'PARAMETER temperature 0.0 '不起作用。
1条答案
按热度按时间ddrv8njm1#
在这里也是一样。在modelfile中添加'PARAMETER temperature 0.0 '不起作用。