注意力機制簡單理解

Attention機制是對Seq2Seq結構的提升。 可以看到,整個Attention注意力機制相當於在Seq2Seq結構上加了一層「包裝」,內部通過函數 score 計算注意力向量 ,從而給Decoder RNN加入額外信息,以提高性能 圖來自於
相關文章
相關標籤/搜索