AnythingLLM运行得怎么样?
AnythingLLM桌面应用
发生了什么?
我正在尝试与我的文档进行聊天。这是一个包含员工姓名和ID的基本文档,但它无法生成高质量的响应。大多数时候,它给我的是随机数据,输出与已有的工具不匹配。
我已经测试过了。
Claude-2.1
.Gemini Pro
.Local Models.
我不是在推销我的产品,但是我将它与已有的代码解释器进行了比较,这些代码解释器可以生成代码,并分析我们本地系统中的所有文件。
链接 Code-Interpreter 这是我用类似模型测试过的工具,如Claude 2.1
,我得到了更好的结果,而且更准确,其他已经存在的被称为代码解释器的工具也是如此。
有已知的重现步骤吗?
你可以尝试使用非常基本的文件,并询问关于数据的问题,它会尝试生成表格,但数据并不总是准确的,即使你使用了相同的模型和不同的代码解释器软件。
9条答案
按热度按时间yhived7q1#
ACK。我会跳到那个项目上。
我已经切换到了本地开发环境,这样我可以实时测试它。
0lvr5msh2#
我遇到了相同的问题。我使用nomic-embed-text将嵌入加载到ollama上,以查看是否是这个问题,因为我看到本地嵌入有这个设置:
embeddingMaxChunkLength = 1_00;
,但结果仍然相同。我还将LLM推送到LM studio,查看API调用中的日志,并注意到上下文非常有限。有限到足以使LLM经常产生错觉。vbkedwbf3#
是的,我们需要提高这个质量并减少幻觉。
h43kikqp4#
尝试将BERT分词器覆盖现有的分词器并查看结果。
在 /collector/utils/tokenizer/index.js 中添加:
您可能需要从 /collector/ 获取
yarn add bert-tokenizer
在某些PDF中,我能够获得更好的上下文。仍在我的设备上进行测试
vq8itlhq5#
我应该补充一下:
我正在使用
作为嵌入器在
server/utils/EmbeddingEngines/native/index.js
中,稍后我会跳到BERT嵌入以使它们匹配(如果你打算使用这个,你需要将文件复制到STORAGE_DIR模型文件夹中)。然后,Qdrant作为数据库,Mixtral 8x7b作为LM studio上的LLM。cld4siwp6#
仍在继续这个项目。
我学到的东西
bge-small-en-v1_5
嵌入器表现得还不错,但仍然希望得到更好的响应nomic-embed-text-v1_5
表现得更好,但当嵌入大型文档时,容器会被关闭。可能可以根据文档大小来降低速度,这样就不会发生这种情况了吗?迄今为止最好的结果
f87krz0w7#
Step by step instructions would be much appreciated 🙏
Issues:
And in LM Studio i get: [ERROR] Unexpected endpoint or method. (POST /v1/embeddings). Returning 200 anyway
ni65a41a8#
更新。V2. 使用不同的嵌入模型,结果一直低于预期。目前运行的设置是:
我一直在尝试不同的分块方法和文本分割方法以及重叠。我了解到父子方法效果很好,稍后会尝试一下。
我认为在这个部分的
./server/utils/vectorDBProvidors/<your db>/index.js
处发生了分块。即使只是手动将重叠更改为大约100,我也觉得结果更好。我还将其与400和40进行了比较,看看会发生什么,它的表现还不错。但这对于大量的点击来说可能不是很好,因为它会在LLM中混淆上下文,并且有一个硬编码的最大值。
rhfm7lfc9#
@tylerfeldstein 顺便说一下,相关问题! #490
我们可以优先处理这个问题,这样你就可以更轻松地处理它。你是使用Docker Desktop还是本地开发?