ollama Qwen1.5-MoE

bxjv4tth  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(34)

你想要哪个模型?
Qwen1.5-MoE的代码已经在最新的Hugging face transformers中,我们建议你使用命令从源代码构建,否则可能会遇到以下错误:pip install git+ https://github.com/huggingface/transformers

xoefb8l8

xoefb8l81#

Ollama不使用变压器。对Qwen MoE的支持必须在llama.cpp支持之后才能实现。有一个PR,但是在合并之前似乎还有工作要做。

相关问题