NER CoNLL2003的微调代码,使用bert_base(已分词)模型,

krcsximq  于 4个月前  发布在  其他
关注(0)|答案(3)|浏览(51)

你能分享一下你使用BERT_base(cased)模型进行NER CoNLL2003微调的代码吗?我在复现报告中的结果(F1 - 92.4)时遇到了一些问题。

kqlmhetl

kqlmhetl1#

是的,如果有那份代码就好了。
我也有同样的问题,我的代码在测试集上只实现了F1:90.0的性能。

js5cn81o

js5cn81o2#

我还没有在测试集上尝试,但我在开发集上也只得到了大约93 F1的成绩,而广告上宣传的性能比96 F1要高。首先,报告这个实验运行时使用的超参数会很有帮助。

pkwftd7m

pkwftd7m3#

你好,你最终复制了结果(带文档上下文)吗?

相关问题