add openbmb MiniCPM-V-2_6 [https://huggingface.co/openbmb/MiniCPM-V-2_6-gguf/tree/main](https://huggingface.co/openbmb/MiniCPM-V-2_6-gguf/tree/main)
uemypmqf1#
在llama.cpp中等待支持: ggerganov/llama.cpp#7599
uajslkp62#
我希望可以支持$Ollama$,无需再自行编译,如其他流行模型一样,运行后直接可用。
翻译结果为:I hope there will be support for Ollama without needing to compile it myself, like other popular models, where it can be run and used directly after.
u0njafvf3#
ggerganov/llama.cpp#7599 已经被合并了,我们可以开始工作了吗:)
woobm2wo4#
差不多了,ggerganov/llama.cpp#7599 是用于 MiniCPM-V-2_5 的,MiniCPM-V-2_6 需要另一个 PR,但这将在现有工作的基础上进行,不会花费很长时间。
9udxz4iz5#
在Windows上有一个Ollama的安装包,并且MiniCPM 2.6模型可用。
gcuhipw96#
ggerganov/llama.cpp#8967
6条答案
按热度按时间uemypmqf1#
在llama.cpp中等待支持: ggerganov/llama.cpp#7599
uajslkp62#
我希望可以支持$Ollama$,无需再自行编译,如其他流行模型一样,运行后直接可用。
翻译结果为:I hope there will be support for Ollama without needing to compile it myself, like other popular models, where it can be run and used directly after.
u0njafvf3#
ggerganov/llama.cpp#7599 已经被合并了,我们可以开始工作了吗:)
woobm2wo4#
差不多了,ggerganov/llama.cpp#7599 是用于 MiniCPM-V-2_5 的,MiniCPM-V-2_6 需要另一个 PR,但这将在现有工作的基础上进行,不会花费很长时间。
9udxz4iz5#
在Windows上有一个Ollama的安装包,并且MiniCPM 2.6模型可用。
gcuhipw96#
ggerganov/llama.cpp#8967