2018 Additive Attention分析及代碼

最近需要評估一些self-attention模塊的效果, 除了簡單好用的Squeeze-Excitation外, Additive Attention (AA) 是最近開始受到人們注意的一個新型self-attention的注意力機制, 來自猶他大學和亞馬遜的作者們, 原意是將其用在BiLSTM的序列模型中的, 但是因爲我是做CV方向的, 所以藉由他的實現, 參考論文, 實現了精簡版的(即可以接到
相關文章
相關標籤/搜索