TensorFlow 2 中 tf.contrib.seq2seq.prepare_attention 的 等价 性 是 什么

ktca8awb  于 2022-11-16  发布在  其他
关注(0)|答案(2)|浏览(228)

我最近在做一些用tensorflow 1.0.1写的代码,我想把它放到tenorflow 2上。我对seq2seq不是很熟悉。非常感谢。

(attention_keys,
attention_values,
attention_score_fn,
attention_construct_fn) = tf.contrib.seq2seq.prepare_attention(
    attention_states=attention_states,
    attention_option="bahdanau",
    num_units=self.decoder_hidden_units,
)
4uqofj5v

4uqofj5v1#

根据这条Github注解,tf.contrib.seq2seq.prepare_attention()被重命名为tf.contrib.seq2seq.DynamicAttentionWrapper
根据此Github Tensorflow CommitDynamicAttentionWrapper已重命名为AttentionWrapper
因此,在Python 1.15中,等价于tf.contrib.seq2seq.prepare_attention()的函数是tf.contrib.seq2seq.AttentionWrapper

Tensorflow 2.x中与tf.contrib.seq2seq.AttentionWrapper等效的函数是tfa.seq2seq.AttentionWrapper

有关详细信息,请查找此Tensorflow Documentation

ebdffaop

ebdffaop2#

首先安装tensorflow附加组件,使用:

pip install tensorflow-addons

然后将其导入到程序中:

import tensorflow_addons as tfa

并用途:

tfa.seq2seq.AttentionWrapper

相关问题