優化中的subgradient方法

版權聲明:本文爲博主原創文章,未經博主允許不得轉載。 目錄(?)[+] 哎,剛剛submit上paper比較心虛啊,無心學習,還是好好碼碼文字吧。 subgradient介紹 subgradient中文名叫次梯度,和梯度一樣,完全可以多放梯度使用,至於爲什麼叫子梯度,是因爲有一些凸函數是不可導的,沒法用梯度,所以subgradient就在這裏使用了。注意到,子梯度也是求解凸函數的,只是凸函數不是處
相關文章
相關標籤/搜索