Attention模型:我的注意力跟你們人類不一樣

背景 截至今日,Badanau Attention的原文citation已達1.34w之多。2020年幾乎所有主流NLP任務都需要藉助attetion來實現。在深度學習全民煉丹的時代,attention是爲數不多具有較強可解釋性的機制。 在attention提出後的最初幾年,大家都因其效果顯著便不假思索地用於了自己的任務;許多paper也理所應當地在實驗部分貼上各式各樣的attention熱圖,用
相關文章
相關標籤/搜索