ollama 嵌入模型返回的结果质量变差,

ev7lccsx  于 2个月前  发布在  其他
关注(0)|答案(3)|浏览(21)

问题是什么?

嵌入模型返回的结果质量现在比之前的版本差很多。

操作系统

Linux

GPU

Nvidia

CPU

Intel

Ollama版本

0.1.48

beq87vna

beq87vna1#

是的,我也注意到了,对于不同的模型,奥拉马会给出一些无意义的回应。

ggazkfy8

ggazkfy82#

Until which version was the quality good? which embedding model? Did you use langchain-python-rag-privategpt?

vx6bjr1n

vx6bjr1n3#

我们还注意到在0.1.38和0.2.1之间的质量下降。我们在这两个版本之间运行了与我们的评估测试用例的比较,并发现了以下情况:

  • 在v0.1.42和v0.1.43之间,我们首次检测到质量下降。
  • 在v0.1.44和v0.1.45之间,我们第二次检测到质量下降。

参考:https://gitlab.com/peerdb/llm/-/merge_requests/34

相关问题