ResNeSt: Split-Attention Networks

Abstract: 由於RexNet簡單和模塊化的結構,許多計算機視覺下游任務仍在使用。我們提出了Split-Attention block能夠使注意力across feature-map groups。並且不會引入額外的及計算消耗。 Introduction: neural architecture search (NAS)有很好的性能,但是不注重訓練的有效性以及gpu內存的使用,需要大量算力
相關文章
相關標籤/搜索