【ML&DL】【skimming】Global Optimality in Neural Network Training

補了一下2017年的CVPR,Global Optimality in Neural Network Training[1] 論文一覽: 痛點 深度學習取得了很大的成功,但是對其成功原因的數學解釋卻還是一個難點。很大一個原因是對深度網絡的參數學習是一個非凸的過程。而優化算法有陷入非global minima的可能。凸優化問題的局部極小值也是全局極小值,因此學習問題的凸公式通常更可取,因爲它們有助於
相關文章
相關標籤/搜索