问题是什么?
我正在运行以下命令:
ollama run llama3.1:70b "can you give me the route to account: $(cat '/tmp/r3m/io/3d651238-75bf-4d4d-a1e1-7c902a83450c/0/Node/List/System.Route.7995d5f2c60a87c4b09a3515ef58f1b75af24058.json')"
在响应的末尾(中间)它崩溃了。
模型在CPU上运行
操作系统
Linux
Debian 12.6
GPU
其他
CPU
Intel
Ollama版本
Ollama版本是0.3.6
3条答案
按热度按时间zzzyeukh1#
我可能知道错误是什么:
OLLAMA_KEEP_ALIVE (默认值 "5m") 对于我的模型来说太短了,在那一点它仍在生成(在我的电脑上可能需要超过5分钟才能生成响应?)
j5fpnvbx2#
保持连接计时器在生成完成之前不会启动。如果您能提供服务器日志,它将有助于调试。
b1payxdu3#
我还没有服务器日志(没有条目)