vllm [用法]:我是否需要为Qwen模型指定聊天模板?

qmb5sa22  于 2个月前  发布在  其他
关注(0)|答案(4)|浏览(69)

当前环境

你好,
我使用LLama-Factory对Qwen 0.5 B模型进行了全面的SFT,在此过程中,我指定了模板参数。我对是否应该为qwen模型使用模板感到有些困惑。我在线上搜索,但没有发现很多关于在什么情况下应该使用“chat-template”参数的信息。
有人能给我一些建议吗?谢谢。

mefy6pfw

mefy6pfw1#

我认为你必须这样做。当我使用VLLM测试Qwen1.5时,我发现如果我不指定QW的聊天模板,生成的结果很糟糕。

htzpubme

htzpubme2#

我认为你必须这样做。当我使用VLLM测试Qwen1.5时,我发现如果我不指定QW的聊天模板,生成的结果很糟糕。
谢谢你的回答。请问如何指定模板?我看到有template_baichuan.jinja模板用于百度传书和chatglm,但没有qwen。

fbcarpbf

fbcarpbf4#

嘿,Jee!我已经按照你描述的添加了聊天模板。但是我注意到与我之前实验的其他模型(如llama2)相比,推理速度较慢。你觉得这是正常的吗?即使设置了max_tokens = 128,每个生成请求也需要30秒才能返回。
你认为我需要为此创建一个新的工单吗?

相关问题