Andrew Ng's deeplearning Course2Week2 Optimization algorithms(優化算法)

優化算法能幫助我們快速訓練模型 一、mini-batch梯度下降法 1.batch vs mini-batch 向量化能讓你相對快速的處理m個樣本,但是當m比較大時,例如5000000,速度可能就會比較慢了。因此,我們將m個樣本切分成一塊一塊的,這就是mini-batch,而原先不切分的形式就是batch。X{t},Y{t}:我們用X{t}和Y{t}分別表示X和Y的第t塊樣本集。 2.mini-b
相關文章
相關標籤/搜索