Deep Learning中的一些Tips詳解(RELU+Maxout+Adam+Dropout)

本文主要講若是咱們的Deep Learning出現了一些很差的結果,咱們該怎麼辦。學習前請先參考:反向傳播算法(Backpropagation)----Gradient Descent的推導過程 html 目錄 1、概述 2、training set上表現很差 1.新的激活函數 2.RELU 3.RELU的變形 3.Maxout 1.思想 2.訓練 4.梯度更新 1.Adagrad 2.RMSPr
相關文章
相關標籤/搜索