自然語言處理(二)

神經序列模型: 機器學習: 優化目標函數:初始化參數、計算偏導數、更新參數、更新learning rate,直至收斂 Batch Gradient Descent 梯度下降法: 穩定可靠,更新速度慢。必須遍歷所有的訓練數據求偏導數,才能更新一次參數。 Stochastic Gradient Descent 梯度下降法: 不穩定,更新快。每看見一個數據點就更新,非常不穩定。 Mini-batch G
相關文章
相關標籤/搜索