亲爱的Ollama,
我正在使用LLava和WebUI,已经向WebUi的GitHub讨论过这个问题。由于在Docker错误日志中没有发现错误,他们建议我联系Ollama团队的GitHub。
当我输入:描述镜像时,无论我给它什么图片,LLava都会给我一个克隆的答案。系统重启后的第一个图像/响应是唯一的,但所有未来的新图像请求都会给出相同的确切答案,逐字/克隆响应。
它会思考几分钟,然后回来显示之前的文本。无论我使用LLava:7b还是LLava:34b。我的显卡是AMD RX580 8GB(我知道它处于低端),但无论如何,我都不明白为什么它会给出一个克隆的答案。
1条答案
按热度按时间8e2ybdfx1#
这听起来像是一个糟糕的模板或者什么。你正在使用哪个确切的模型版本?如果你在Windows上,打开
cmd
,输入ollama list
,并将确切的名称粘贴在这里,就像我在我的案例中使用的llava:7b-v1.6-mistral-q4_K_M
。当你安装模型时,你是如何做到的?你是通过Ollama以类似
ollama run llava:7b-v1.6-mistral-q4_K_M
或ollama pull llava:7b-v1.6-mistral-q4_K_M
的命令正确地完成的吗?你可以在
https://ollama.com/library
中搜索llava,点击下拉菜单,选择一个版本/数量,然后点击结果右上角的复制命令图标。将该命令粘贴到命令提示符中,它将获得你需要的一切,包括模板。