論文閱讀 《Progressive Self-Supervised Attention Learning for Aspect-Level Sentiment Analysis》

這篇文章也是針對aspect-level SA的一篇文章,其實準確的說更像一篇針對注意力機制的文章,提出了SA模型目前注意力機制的缺陷:過度注意高頻詞,忽略了低頻次,本文用了兩個技巧:第一個是迭代的mask注意力權重最大的詞,第二個是加入了一個正則化項
相關文章
相關標籤/搜索