ollama 稳定LM-2 12B

a2mppw5e  于 2个月前  发布在  其他
关注(0)|答案(2)|浏览(27)

你想要哪种模型?
这个模型看起来很有前途:https://stability.ai/news/introducing-stable-lm-2-12b

gfttwv5a

gfttwv5a1#

肯定会对其进行量化,但目前只有4k的上下文。他们将在以后发布一个新版本。
如果你在HF上看到它并且错过了,请在这里给我发个消息

jutyujz0

jutyujz02#

Converted and quantized to Q6_K using convert-hf-to-gguf.py and quantize from llama.cpp b2690 - but when trying to run using ollama run (0.1.32) I get:

Error: llama runner process no longer running: 3221226505

The same GGUF file can be launched using llama.cpp.

相关问题