【文獻閱讀】Self-Normalizing Neural Networks

Self-Normalizing Neural Networks ,長達93頁的附錄足以成爲吸睛的地方(給人感覺很厲害), 此paper提出了新的激活函數,稱之爲 SELUs ,其具有normalization的功能. 給人感覺只是在全連接層有效果,在CNN和RNN中貌似沒有提及有效果 Abstract: CNN在視覺的多個領域有很好的表現,然而 feed-forward neural netwo
相關文章
相關標籤/搜索