Week8.2_PCA降維

主成分分析 PCA

1。做用:降維 數據更容易分析函數

2.核心:找到一個平面(線段、體)使得全部點到這個平面的距離最短學習

3.實現方法:1)mean normalization 均值歸一化 (每一個特徵值的均值)or feature scaling 特徵縮放3d

2)找到向量(線:一個向量,面:兩個向量)orm

3)採用【u,s,v】(協方差)獲得u,前k個就是投影的k個方向blog

4)乘上x 獲得投影的函數z
內存


1.k的選擇使得99%的差別性獲得保留,由於不少數據是類似的,因此壓縮後也不會形成數據的失真、
2.採用【u,s,v】,只須要使用公式一次,就能夠迭代k,找到差別值》99%io

PCA在有監督學習中的加速 (只在訓練集中使用)

  1. 提取出輸入值方法

  2. 使用PCA使得維度下降im

3.獲得新的訓練集

數據


PCA推薦使用的狀況:

  1. 避免過擬合(正則)
  2. 只有在內存過小,太慢收斂等狀況下,才使用PCA,通常都會(x(i),y(i))進行計算
相關文章
相關標籤/搜索