我最近在做一些用tensorflow 1.0.1写的代码,我想把它放到tenorflow 2上。我对seq2seq不是很熟悉。非常感谢。
(attention_keys,
attention_values,
attention_score_fn,
attention_construct_fn) = tf.contrib.seq2seq.prepare_attention(
attention_states=attention_states,
attention_option="bahdanau",
num_units=self.decoder_hidden_units,
)
2条答案
按热度按时间4uqofj5v1#
根据这条Github注解,
tf.contrib.seq2seq.prepare_attention()
被重命名为tf.contrib.seq2seq.DynamicAttentionWrapper
。根据此Github Tensorflow Commit,
DynamicAttentionWrapper
已重命名为AttentionWrapper
。因此,在Python 1.15中,等价于
tf.contrib.seq2seq.prepare_attention()
的函数是tf.contrib.seq2seq.AttentionWrapper
。Tensorflow 2.x中与
tf.contrib.seq2seq.AttentionWrapper
等效的函数是tfa.seq2seq.AttentionWrapper
。有关详细信息,请查找此Tensorflow Documentation。
ebdffaop2#
首先安装tensorflow附加组件,使用:
然后将其导入到程序中:
并用途: