BahdanauAttention與LuongAttention注意力機制簡介

在使用tensorflow時發現其提供了兩種Attention Mechanisms(注意力機制),如下 The two basic attention mechanisms are: tf.contrib.seq2seq.BahdanauAttention (additive attention, ref.) tf.contrib.seq2seq.LuongAttention (multipli
相關文章
相關標籤/搜索