【深度學習】第二階段 —— 第二課

聲明: 此筆記爲吳恩達(Andrew Ng)的深度學習課程學習後的總結,會根據自己的學習進度更新。 優化算法 Mini-batch梯度下降法 巨大數據集中一個個數據迭代費事太久,將數據集分爲更多的小組(例如:500百萬個數據分爲5000組一組一千個),對每個組進行迭代 梯度下降中cost的變化圖如下: 如何去選擇你的mini-batch的大小: ① 當你的mini-batch大小等於樣本總數「m」
相關文章
相關標籤/搜索