DNN, DL Updates

機器學習的理論進展到了什麼程度?web 首先從傳統的神經元層面來講,使用了幾十年的Sigmoid激活函數被ReLU、PReLU這樣的激活函數代替,部分解決了訓練到兩端梯度變小致使訓練緩慢甚至梯度消失的問題;權重的初始化,除了原來的均勻方法、高斯方法,前幾年出現了xavier、msra等方法,這些更適合深度網絡。固然這些算是小的改進,最近基本不多這方面的文章了。 其次是分類器層面,發展出了Softm
相關文章
相關標籤/搜索