Large-Margin Softmax Loss for Convolutional Neural Networks

L-Sofmax paper url: https://arxiv.org/pdf/1612.02295 year:2017 Introduction 交叉熵損失與softmax一起使用可以說是CNN中最常用的監督組件之一。 儘管該組件簡單而且性能出色, 但是它只要求特徵的可分性, 沒有明確鼓勵網絡學習到的特徵具有類內方差小, 類間方差大的特性。 該文中,作者提出了一個廣義的 large marg
相關文章
相關標籤/搜索