tensorflow實現seq2seq模型細節(5):如何實現帶attention的beam search,tensorflow構建獨立的計算圖(子圖),推理圖加載訓練圖的參數達到參數共享

爲什麼會有這樣的問題,在對encoder構建attention時,訓練時傳入到AttentionWrapper的參數和解碼時是不一樣的。 構造attention的方法: def build_rnn_layer_attention(self,encoder_output,decoder_layer,decoder_num_units,src_seq_len): #scaled_luo
相關文章
相關標籤/搜索