Ollama serve崩溃与llama3.1:70b

yzxexxkh  于 23天前  发布在  其他
关注(0)|答案(3)|浏览(16)

问题是什么?
我正在运行以下命令:

ollama run llama3.1:70b "can you give me the route to account: $(cat '/tmp/r3m/io/3d651238-75bf-4d4d-a1e1-7c902a83450c/0/Node/List/System.Route.7995d5f2c60a87c4b09a3515ef58f1b75af24058.json')"
在响应的末尾(中间)它崩溃了。
模型在CPU上运行
操作系统
Linux
Debian 12.6
GPU
其他
CPU
Intel
Ollama版本
Ollama版本是0.3.6
zzzyeukh

zzzyeukh1#

我可能知道错误是什么:
OLLAMA_KEEP_ALIVE (默认值 "5m") 对于我的模型来说太短了,在那一点它仍在生成(在我的电脑上可能需要超过5分钟才能生成响应?)

j5fpnvbx

j5fpnvbx2#

保持连接计时器在生成完成之前不会启动。如果您能提供服务器日志,它将有助于调试。

b1payxdu

b1payxdu3#

我还没有服务器日志(没有条目)

相关问题