ollama 通过Modelfile构建的模型无法运行,

5m1hhzi4  于 2个月前  发布在  其他
关注(0)|答案(3)|浏览(89)

问题是什么?

NAME ID SIZE MODIFIED
glm-4-9b-chat:latest 5356a47a9286 6.3 GB 3 minutes ago
llama3:latest 71a106a91016 4.7 GB 2 months ago
llava:latest 8dd30f6b0cb1 4.7 GB 2 months ago
mistral:latest 61e88e884507 4.1 GB 7 weeks ago
phi3:latest a2c89ceaed85 2.3 GB 2 months ago
qwen:1.8b b6e8ec2e7126 1.1 GB 2 months ago
yi:6b a7f031bb846f 3.5 GB 7 weeks ago
znbang/bge:large-zh-v1.5-f16 9020b4d2aeca 650 MB 2 months ago

> ollama run glm-4-9b-chat:latest
Error: llama runner process no longer running: -1
> ollama run phi3:latest

OS

Linux

GPU

Nvidia

CPU

  • No response*

Ollama version

  • No response*
py49o6xq

py49o6xq1#

你好,@yinjianjie。我尝试了glm-4-9b-chat:latest,但没有找到它。你能为我解释一下这个问题吗?

zzlelutf

zzlelutf2#

目前,glm4尚不受支持,但是底层的llama有相关的PR。

qeeaahzv

qeeaahzv3#

你好,@igorschlum ,glm-4-9b-chat-GGUF已经上传到huggingface,现在在llama.cpp/pull/8031中支持,希望很快能得到支持。谢谢。

相关问题