按照文档安装,到初始化知识库的时候报错 not found in available embeddings, using quentinz/bge-large-zh-v1.5 instead
2024-07-31 17:55:17.030 | INFO | chatchat.server.knowledge_base.kb_cache.faiss_cache:load_vector_store:109 - loading vector store in 'samples/vector_store/quentinz/bge-large-zh-v1.5' from disk.
2024-07-31 17:55:19.088 | ERROR | chatchat.server.knowledge_base.kb_cache.faiss_cache:load_vector_store:140 - Error raised by inference endpoint: HTTPConnectionPool(host='127.0.0.1', port=11434): Max retries exceeded with url: /api/embeddings (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x00000160D5913CD0>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。'))
2024-07-31 17:55:19.089 | ERROR | chatchat.init_database:worker:61 - 向量库 samples 加载失败。
6条答案
按热度按时间llew8vvj1#
你使用的是什么模型部署框架?这不是提示的你本地没有quentinz/bge-large-zh-v1.5 embedding 模型么。
bvhaajcl2#
你使用的是什么模型部署框架?这不是提示的你本地没有quentinz/bge-large-zh-v1.5 embedding 模型么。
噢,意思是我要先启动模型然后再启动这个是嘛,新手刚接触用GLM-4模型太卡,我重新下一个qianwen的试试。
lyfkaqu13#
从报错来看,应该是使用xinference启动的模型,但是没有找到embedding模型。使用了ollama的embedding模型quentinz/bge-large-zh-v1.5,但在向量库初始化时没有使用这个。
需要检查model_settings.yaml中默认的embedding模型是哪个,并确认是否在xinference中启动。
2lpgd9684#
从报错上看,应该是用xinference启动的模型,但是embedding模型没有找到,是用了ollama的embedding模型quentinz/bge-large-zh-v1.5,但是向量库初始化的时候没有用这个。需要检查下model_settings.yaml中默认的embedding模型是哪个,是否在xinference中启动。
默认选用的 LLM 名称
DEFAULT_LLM_MODEL: qwen2-chat
默认选用的 Embedding 名称
DEFAULT_EMBEDDING_MODEL: bge-large-zh-v2 用的是千问的大模型,这个embedding 要改吗
46qrfjad5#
从报错信息来看,问题出在启动模型时使用的embedding模型(quentinz/bge-large-zh-v1.5)没有被正确加载。请检查以下几点:
model_settings.yaml
文件中默认的embedding模型是正确的,并且在xinference中启动时使用了这个模型。samples/vector_store/quentinz/bge-large-zh-v1.5
目录下是否存在quentinz/bge-large-zh-v1.5文件。flvlnr446#
embedding 模型启动平台是不是xinference ,xinference上现在默认没有bge-large-zh-v2 ,还是要确定下初始化的时候是用了哪个embeddding模型,如果和现在的embedding模型不符合,需要chatchat kb -r重新初始化