根据您提供的信息,这个问题可能是由于在运行chatchat kb -r
时,程序遇到了一些问题。具体来说,这个警告信息表示GuardrailsOutputParser
从langchain.output_parsers
中被弃用,建议使用langchain_community.output_parsers.rail_parser
中的GuardrailsOutputParser
替代。
要解决这个问题,您可以尝试以下步骤:
- 打开
/usr/local/lib/python3.11/site-packages/langchain/_api/module_import.py
文件。 - 将第87行的代码:
from langchain.output_parsers import GuardrailsOutputParser
替换为:
from langchain_community.output_parsers.rail_parser import GuardrailsOutputParser
- 保存文件并重新运行
chatchat kb -r
。
如果问题仍然存在,请检查您的Docker容器是否正常运行,以及是否有足够的资源(如内存和CPU)来执行此操作。此外,您还可以查看Docker容器的日志以获取更多关于错误的详细信息。
4条答案
按热度按时间dvtswwa31#
模型配置文件如下:
pdtvr36n2#
ollama配置如下
root@86ee9f449bc5:/# ollama list
NAME ID SIZE MODIFIED
bge-large-zh-v1.5:latest bc8ca0995fcd 651 MB 26 hours ago
qwen2-7b-instruct:latest 3f5a2ad726c9 8.1 GB 3 days ago
目前用chatchat的聊天功能正常,但是一涉及到知识库的操作就无响应。
egdjgwm83#
请检查 Embedding 模型是否已正确配置并启动。
oxf4rvwz4#
我也有点怀疑是Embedding模型这边的问题,不知道ollma下应该如何配置Embedding模型?
我看网上说Embedding是不能用ollma run来直接跑的,因此就保持只是pull下来的那个状态,用ollma run跑的是qwen2的那个模型。