改善深層神經網絡week2學習筆記

1.Mini-Batch Gradient descent Mini-batch每次處理訓練數據的一部分,即用其子集進行梯度下降,算法速度會執行的更快。 方法分爲兩個步驟: Shuffle: 洗牌一般同步打亂原來數據集X和對應標籤Y中的數據信息,使得數據隨機分散到不同的minibatch中 代碼中用到了np.random.permutation()方法作爲洗牌方法,對於打亂順序有兩種方法。perm
相關文章
相關標籤/搜索