unsupervise learning-dimension reduction

文章目錄 PCA Matrix Factorization Word Embedding t-SNE PCA 目標是找到一個向量w1,所有數據點x在w1上的投影,得到z1,希望得到z1的方差越大越好,即越分散越好,越分散越有利於進行數據的分類 PCA缺點:由於是非監督學習,在確定向量時,希望所有數據投影到向量上的值爲離散值,但是由於數據沒有label,如果數據爲兩個分類,那麼經過降維之後,數據會混
相關文章
相關標籤/搜索