unilm 收到意外的关键字参数 'distilled'

iyzzxitl  于 2个月前  发布在  其他
关注(0)|答案(3)|浏览(48)

描述bug

我使用的模型(UniLM,MiniLM,LayoutLM等):
当使用以下情况时出现问题:

  • 官方示例脚本:(详细说明如下)
  • 我自己的修改过的脚本:(详细说明如下)

一个清晰简洁的描述bug是什么。

重现

重现行为所需的步骤:
1.
2.
3.

预期行为

一个清晰简洁的描述你期望会发生什么。

  • 平台:
  • Python版本:
  • PyTorch版本(GPU?):
ruoxqz4g

ruoxqz4g2#

参数 distilledpretrained_cfg**kwargs 字典中,但在传递给 VisionTransformerinit 函数时不应该出现。
我在 super().__init__(*args, **kwargs) 之前添加了以下内容:
修改后的 class AdaptedVisionTransformer(VisionTransformer): 行现在看起来是这样的:

self.distilled = kwargs.pop('distilled')
self.pretrained_cfg = kwargs.pop('pretrained_cfg')
super().__init__(*args, **kwargs)
ylamdve6

ylamdve63#

参数 distilledpretrained_cfg**kwargs 字典中,但在传递给 VisionTransformerinit 函数时不应该出现。
我在 super().__init__(*args, **kwargs) 之前添加了以下内容:
修改后的 class AdaptedVisionTransformer(VisionTransformer): 行现在看起来是这样的:

self.distilled = kwargs.pop('distilled')
self.pretrained_cfg = kwargs.pop('pretrained_cfg')
super().__init__(*args, **kwargs)

谢谢。

相关问题