論文筆記 | Large-Margin Softmax Loss for Convolutional Neural Networks

出處:ICML 2016 論文:http://proceedings.mlr.press/v48/liud16.pdf 代碼:https://github.com/luoyetx/mx-lsoftmax 摘要: 交叉熵損失與softmax一起可以說是卷積神經網絡(CNN)中最常用的監督組件之一。 儘管該組件具有簡單性,流行性和出色的性能,但並未明確鼓勵對功能進行辨別性學習。 本文提出了一個廣義的l
相關文章
相關標籤/搜索