ollama 支持CogVLM,CogVLM是LLaVA的替代方案,

piah890a  于 2个月前  发布在  其他
关注(0)|答案(7)|浏览(96)

目前奥拉玛正在支持LLaVA,这非常棒。
我想知道是否有机会加载其他类似的模型,比如CogVLM?

dphi5xsq

dphi5xsq1#

到目前为止,通过Llama.cpp支持Ollama的路径。看起来CogVLM在那里并没有真正获得动力。那个对它感兴趣的开发人员也说他们已经有很多事情要做了。再加上听起来可能需要很多工作。

zphenhs4

zphenhs42#

尝试https://github.com/jhc13/taggui,如果你在寻找一个简单的工具(我可以使用4位加载12GB VRAM的CogVLM v1)。

ecr0jaav

ecr0jaav4#

在这一点上,通过Llama.cpp支持Ollama的路径。
尽管我不太明白为什么它必须是这样,如果它没有在llama.cpp中得到支持。CogVLM2可以在Python中运行,而且提到的taggui工具已经可以工作了。难道Ollama中有什么基本的东西使得它很难通过Python绑定加载,并且暂时放弃llama.cpp吗?

gkn4icbw

gkn4icbw5#

我不像以前那样密切关注这个项目,但据我所知,Ollama没有通过Python绑定加载任何内容,并放弃了llama.cpp。

twh00eeo

twh00eeo6#

但是有什么阻止我们这样做呢?

qhhrdooz

qhhrdooz7#

谁是“我们”?
Ollama维护者最终决定项目要做什么。我认为目前为止,他们除了llama.cpp之外,没有支持任何后端。此外,我最后一次查看时,他们对接受的社区贡献类型非常保守。当然,还有一种选择就是分叉该项目。

相关问题