这个错误是由于在训练过程中,Faiss库的IndexFlatL2
属性被设置为NoneType
对象导致的。为了解决这个问题,你可以尝试以下方法:
- 确保你已经正确安装了Faiss库。在Colab中,你可以使用以下命令安装Faiss库:
!pip install faiss-cpu
- 检查你的代码中是否有任何与Faiss库相关的导入错误。确保你正确地导入了Faiss库,如下所示:
import faiss
- 如果问题仍然存在,尝试更新Ludwig和Faiss库到最新版本:
!pip install --upgrade ludwig faiss-cpu
- 如果以上方法都无法解决问题,你可以尝试在Stack Overflow或Ludwig官方GitHub仓库中提交一个issue,以获取更多帮助。
5条答案
按热度按时间qzlgjiam1#
你好@chayanray– 是的,看起来你可能需要下载Ludwig的
llm
子包。我看到你正在使用0.8.dev
。如果你是通过git克隆仓库进行安装的,那么你可以在虚拟环境中通过来安装。如果这样可以的话,请告诉我,谢谢!
gtlvzcf82#
您好,我无法看到您提到的笔记本。但是,如果您能提供更多关于错误信息的详细描述,我将尽力帮助您解决问题。
wgmfuz8q3#
嘿,@chayanray,我的猜测是
faiss
或sentence_transformers
中的一个没有安装在你的环境中。我们可以改进关于这个错误的信息提示,使其正确地告诉你哪个包缺失,但你能尝试在你的环境中运行这个并告诉我们它显示了什么吗:如果缺少任何一个包,请直接安装它们:
idv4meu84#
你好,@tgaddair,安装faiss-cpu似乎解决了这个问题。谢谢。
然而,即使进行了训练,准确率似乎仍然为0.33。每次预测都显示默认的“中立”。我在这里做错了什么?看起来训练根本没有进行。
ecfsfe2w5#
嘿,@chayanray,
我会让@geoffreyangus发表意见以验证,但我认为我们一起编写的示例脚本使用的是一个非常小的模型,仅用于演示目的,可能太小而无法很好地完成任务(
facebook/opt-350m
)。在我们的内部测试中,我们使用了更大的模型,特别是一个经过调整的指令模型。例如,我建议将
model_name
更改为更大的东西,如tiiuae/falcon-7b
,这应该能够在单个GPU上执行推理时容纳在内存中。