吳恩達機器學習第二週

Hypothesis: Parameters: Cost Function: Goal: Gradient Descent: Repeat{ (simultaneously update  for j=0, 1, ... , n) } Feature Scaling: 其中是平均值,是標準差(中心化、標準化) Learning Rate: 通常可以考慮嘗試這些學習率: Normal Equatio
相關文章
相關標籤/搜索