Langchain-Chatchat [BUG] 无法使用qwen-vl-chat模型

qfe3c7zg  于 2个月前  发布在  其他
关注(0)|答案(5)|浏览(56)

问题描述:在xinference中已经启动了qwen-vl-chat模型,然后将DEFAULT_LLM_MODEL改为qwen-vl-chat,在webui的模型配置中也能够选择qwen-vl-chat,但是后台有提示信息“default llm model qwen-vl-chat is not found in available llms, using glm4-chat instead”。

复现问题的步骤:

  1. 在xinference中启动qwen-vl-chat模型
  2. 修改DEFAULT_LLM_MODEL改为qwen-vl-chat
  3. 启动chachat
  4. 在webui的模型配置中选择qwen-vl-chat
  5. 报错“default llm model qwen-vl-chat is not found in available llms, using glm4-chat instead”

预期结果:能够调用qwen-vl-chat

实际结果:不能调用qwen-vl-chat

环境信息:

  • langchain-ChatGLM 版本/commit 号:v0.3
  • 是否使用 Docker 部署(是/否):否
  • 使用的模型(ChatGLM2-6B / Qwen-7B 等):qwen-vl-chat
  • 使用的 Embedding 模型(moka-ai/m3e-base 等):bge-large-zh-v1.5
  • 使用的向量库类型 (faiss / milvus / pg_vector 等): faiss
  • 操作系统及版本 / Operating system and version: windows11
  • Python 版本 / Python version: 3.10.14
  • 其他相关环境信息 / Other relevant environment information:
    附加信息 / Additional Information

vq8itlhq

vq8itlhq1#

我也发现了这个问题,导致在对话的时候一直去找ollam平台!实际上qwen-vl是正常支持文本对话的。

2o7dmzc5

2o7dmzc52#

qwen-vl-chat 与普通的 LLM 有区别,不能用于 DEFAULT_LLM_MODEL。
你只需要将其填入 model_settings.yaml 文件中对应平台的 image2text_models,然后在 Webui 中选择它即可。

pinkon5k

pinkon5k3#

qwen-vl-chat 与普通的 LLM 有区别,不能用于 DEFAULT_LLM_MODEL。你只需要把它填入 model_settings.yaml 里对应平台的 image2text_models,然后在 Webui 中选择它即可。

在 Webui 中选择 xinference 和 qwen-vl-chat 模型,点击 OK 之后不上传图片,直接在对话框中输入问题,xinference 中有报错,对话失败:

在 Webui 中上传一张图片后,再在对话框中输入问题,就能够正常对话了。但是在 xinference 的 UI 界面,不上传图片,直接开始对话也是没有问题的。

fd3cxomn

fd3cxomn4#

qwen-vl-chat 与普通的 LLM 有区别,不能用于 DEFAULT_LLM_MODEL。你只需要把它填入 model_settings.yaml 里对应平台的 image2text_models,然后在 Webui 中选择它即可。

按上述方法配置了之后,没有最开始的报错了,但是选择 qwen-vl-chat 进行问话的时候图片显示不出来,后台有报错。

mrzz3bfm

mrzz3bfm5#

在源码中,get_config_models方法的传参是model_type="llm",而qwen-vl-chatmodel_typeimage2text_models,所以没有获取到qwen-vl-chat,不知道是不是这个原因。

相关问题