CV領域中的注意力機制

科研方向需要自己調研一些合適的注意力機制,所以自己總結如下: 一. channel attention:SEnet:Squeeze-and-Excitation Networks 首先是 Squeeze 操作,順着空間維度來進行特徵壓縮,一般用GAP操作; 其次是 Excitation 操作,一般爲卷積操作;最後是一個 Re-weight的操作,用來對輸入數據通道進行權重賦值 實現代碼: 二.GS
相關文章
相關標籤/搜索