pytorch 如何使用fastai保存的模型?

gab6jxml  于 2023-10-20  发布在  其他
关注(0)|答案(4)|浏览(133)

我在google colab中训练了我的模型,并在我的电脑中下载了.pkl文件。现在,我该怎么用它?我如何加载.pkl文件,我需要安装fastai才能工作吗?

li9yvcax

li9yvcax1#

您需要用途:

from fastbook import load_learner

learn_inference = load_learner(filename)

参见:https://docs.fast.ai/learner.html#load_learner获取文档。

edqdpe6u

edqdpe6u2#

如何加载.pkl文件
假设你已经使用learner.save保存了你的模型,你可以使用补充的learner.load方法。
我需要安装Fastai才能工作吗
是的,如果你这样保存的话,你需要fastai。您也可以通过以下方式保存learner中包含的PyTorch模型本身:

torch.save(learner.model, "/path/to/model.pt") # or save it's state_dict, better option
model = torch.load("/path/to/model.pt")

无论哪种方式,您都需要这些库,因为pickle存储数据,但class的定义和创建必须以代码方式提供。

5w9g7ksd

5w9g7ksd3#

from fastai.text.all import * 
learner=load_learner("YOUR-MODEL-PATH")

如果你使用的是最新版本的fastai,你可以这样做。

dm7nw8vv

dm7nw8vv4#

根据post
learn.save 与learn.load配对并保存模型,以及潜在的优化器。learn.export与load_learner配对进行部署
所以你可以learn.load只有你保存与learn.save例如.作为训练期间的保存点(使用Learner的活动示例)。当您使用learn.export(用于部署/在生产中)时,您可以使用learn = load_learner创建一个新的学习者

相关问题