BERT在机器翻译中的重要性

pkbketx9  于 4个月前  发布在  其他
关注(0)|答案(1)|浏览(56)

由于BERT基于Transformer架构,那么对于已经是一个Transformer的NMT模型,是否还有理由使用BERT嵌入呢?

我认为BERT嵌入是在非常大的语料库上进行训练的,它们可能比与我的NMT模型同时在小规模平行语料库上进行训练的嵌入带来更好的信息。

相关问题