用於文本分類的RNN-Attention網絡

Attention機制在NLP上最先是被用於seq2seq的翻譯類任務中,如Neural Machine Translation by Jointly Learning to Align and Translate這篇文章所說。git 以後在文本分類的任務中也用上Attention機制,這篇博客主要介紹Attention機制在文本分類任務上的做用,與seq2seq中使用的可能會略有不一樣, 主要參
相關文章
相關標籤/搜索