深度學習——激活函數ReLu、LReLu、PReLu原理解析

深度學習——激活函數ReLu、LReLu、PReLu原理解析 簡介 論文鏈接: https://arxiv.org/abs/1502.01852 由於項目需要,需要了解msra 權重初始化方法原理, 正好Kaiming 大神這篇論文提出了PReLu。本博客主要介紹PReLu。文中兩個創新點是使用PReLu和msra初始化後,在I ImageNet 2012 classification datas
相關文章
相關標籤/搜索