吳恩達機器學習筆記(4)——特徵歸一化和學習速率

1. Feature Normalization(Feature Scaling) 在梯度下降算法中,當θ在一個較小的範圍內時會快速下降,而在較大的範圍內則下降的較爲緩慢,所以當變量的取值範圍非常不均勻時,算法會低效率地振動到最優解。 所以說,我們可以將每個變量固定在一個大致相同的範圍內來加快梯度下降的速率。例如將變量控制在: 這不是一個絕對的區間,只要我們大致將變量控制在相似的取值範圍內,就能夠
相關文章
相關標籤/搜索