是否存在相同错误的现有问题?
- 我已检查了现有问题。
分支名称
main
提交ID
其他环境信息
实验环境:CentOS7,1024GB内存,412TB存储,NVIDIA A800显卡(80GB显存)、CUDA12.2环境
实际行为
我使用ollama接入deepseek-v2:236b大模型服务,关闭了最大Token数的限制,偶尔会出现这个问题,而接入gpt4o就没有遇到这种情况。错误信息为:ERROR: ApiError(500, 'search_phase_execution_exception', 'Query contains too many nested clauses; maxClauseCount is set to 1024'),看起来是es的问题,但修改elasticsearch.yml文件也不生效。
预期行为
- 无响应*
重现步骤
用ollama接入deepseek-v2:236b大模型服务,测试知识库问答,偶发该问题。
目前仅在接入deepseek-v2:236b的时候遇到此偶发问题,尝试过的其他模型都正常。
其他信息
- 无响应*
3条答案
按热度按时间mi7gmzs61#
我认为这与LLM无关。
你最好查看一下docker/ragflow-logs/api中的ES日志。
vaj7vani2#
这个是错误日志文件,应该是在查询时使用了过多的 OR 运算符。
1zmg4dgp3#
的确,不仅仅是deepseek-v2:236b模型存在这个问题,我在我们自己微调的模型中也复现了这个情况。这应该是ES的问题。