用於文本分類的RNN-Attention網絡

Attention機制在NLP上最早是被用於seq2seq的翻譯類任務中,如Neural Machine Translation by Jointly Learning to Align and Translate這篇文章所說。 之後在文本分類的任務中也用上Attention機制,這篇博客主要介紹Attention機制在文本分類任務上的作用,與seq2seq中使用的可能會略有不同, 主要參考的論文
相關文章
相關標籤/搜索