你想要哪个模型?
Qwen1.5-MoE的代码已经在最新的Hugging face transformers中,我们建议你使用命令从源代码构建,否则可能会遇到以下错误:pip install git+ https://github.com/huggingface/transformers
你想要哪个模型?
Qwen1.5-MoE的代码已经在最新的Hugging face transformers中,我们建议你使用命令从源代码构建,否则可能会遇到以下错误:pip install git+ https://github.com/huggingface/transformers
1条答案
按热度按时间xoefb8l81#
Ollama不使用变压器。对Qwen MoE的支持必须在llama.cpp支持之后才能实现。有一个PR,但是在合并之前似乎还有工作要做。