機器學習(十)- Neural Network representation

Non-linear hypotheses 我們繼續討論分類的話題,對於之前的較爲簡單的邏輯迴歸來說,我們一直在討論2個參數的情況,是因爲它直觀,我們可以在二維平面上直接展示出來,利於我們學習,就例如下圖左上角的一個非線性分類,我們想要去擬合一條二維曲線。 但是當參數增多,如上圖假設我們有100個參數,如果進行參數組合成特徵,光2次項就會有大約5000左右的feature,3次項會有大約17000
相關文章
相關標籤/搜索