論文筆記:Efficient Nonconvex Regularized Tensor Completion with Structure-aware Proximal Iterations

一、本文創新點 1、作者注意到重疊核範數對於張量補全的效果比較好,提出了一種用於張量補全的重疊核範數正則化的非凸變體。 2、該正則化自然引起損失函數的非凸,故提出了一個更有效的優化的算法 3、提出的優化算法有三點優勢:一:避免了代價昂貴的張量展開和合並;二:在迭代中保持「稀疏加低秩」結構;三:融入適應的動力。 二、相關工作 1、低秩矩陣學習                            
相關文章
相關標籤/搜索