ollama Lava返回非唯一响应

cx6n0qe3  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(26)

亲爱的Ollama,

我正在使用LLava和WebUI,已经向WebUi的GitHub讨论过这个问题。由于在Docker错误日志中没有发现错误,他们建议我联系Ollama团队的GitHub。

当我输入:描述镜像时,无论我给它什么图片,LLava都会给我一个克隆的答案。系统重启后的第一个图像/响应是唯一的,但所有未来的新图像请求都会给出相同的确切答案,逐字/克隆响应。

它会思考几分钟,然后回来显示之前的文本。无论我使用LLava:7b还是LLava:34b。我的显卡是AMD RX580 8GB(我知道它处于低端),但无论如何,我都不明白为什么它会给出一个克隆的答案。

8e2ybdfx

8e2ybdfx1#

这听起来像是一个糟糕的模板或者什么。你正在使用哪个确切的模型版本?如果你在Windows上,打开cmd,输入ollama list,并将确切的名称粘贴在这里,就像我在我的案例中使用的llava:7b-v1.6-mistral-q4_K_M
当你安装模型时,你是如何做到的?你是通过Ollama以类似ollama run llava:7b-v1.6-mistral-q4_K_Mollama pull llava:7b-v1.6-mistral-q4_K_M的命令正确地完成的吗?
你可以在https://ollama.com/library中搜索llava,点击下拉菜单,选择一个版本/数量,然后点击结果右上角的复制命令图标。将该命令粘贴到命令提示符中,它将获得你需要的一切,包括模板。

相关问题