凸優化學習筆記16:次梯度 Subgradient

前面講了梯度下降的方法,關鍵在於步長的選擇:固定步長、線搜索、BB方法等,但是如果優化函數本身存在不可導的點,就沒有辦法計算梯度了,這個時候就需要引入次梯度(Subgradient),這一節主要關注次梯度的計算。 1. 次梯度 次梯度(subgradient)的定義爲 ∂ f ( x ) = { g ∣ f ( y ) ≥ f ( x ) + g T ( y − x ) , ∀ y ∈ dom f
相關文章
相關標籤/搜索