吳恩達老師深度學習筆記第二課(第二週)

第二週優化算法 2.1Mini_batch梯度下降算法 ①向量化可以讓你相對較快的處理所有m個樣本,但是如果m很大,處理速度仍然緩慢 ②傳統的梯度下降算法,需要先處理所有數據,然後進行下一步梯度下降算法 把訓練集分割成小一點的子訓練集,這些子集取名爲Mini_batch(然後每處理一個子集,就把他傳下去進行下一步梯度下降算法),同樣也要拆分y訓練集。 ③我的理解:就是不再把所有數據向量化一個大向量
相關文章
相關標籤/搜索