Hyperparameter tuning/Batch Normalization(超參數調試、Batch正則化及優化)---deeplearning.ai---筆記(18)

一、思維導圖 二、重要的超參數 學習速率alpha>mini-batchsize/hidden units>layers/learning rate decay Adam算法中的參數幾乎不調試。調試的方法採取從粗糙到精細的方法,通過隨機進行超參數的選擇,觀察這些超參數從而找到規律。估計超參數的大致範圍,然後進行精細化調整。 在進行隨機生成隨機數的時,不採用線性生成的方式。比如:如果你要搜索0.00
相關文章
相關標籤/搜索