Tensorflow Seq2seq attention decode解析

tensorflow基於 Grammar as a Foreign Language實現,這篇論文給出的公式也比較清楚。 這裏關注seq2seq.attention_decode函數, 主要輸入 decoder_inputs, initial_state, attention_states,     這裏可以主要參考 models/textsum的應用,textsum採用的多層雙向lstm, 假設
相關文章
相關標籤/搜索