Machine Learning(機器學習)之二:juejin.im/post/5bd1d1…算法
要嘗試分類,一種方法是使用線性迴歸並將大於0.5的全部預測映射爲1,將全部小於0.5的預測映射爲0.可是,此方法不能很好地工做,由於分類實際上不是線性函數。機器學習
分類問題就像迴歸問題同樣,除了咱們如今想要預測的值只佔用少許離散值。如今,咱們將重點關注二進制分類 問題,其中y只能處理兩個值0和1.(咱們在這裏所說的大多數也將推廣到多類狀況。)例如,若是咱們正在嘗試爲電子郵件構建垃圾郵件分類器X (i ) ,若是是一封垃圾郵件,則y可能爲1,不然爲0。所以,y∈{0,1}。0也稱爲負類,1表示正類,它們有時也用符號「 - 」和「+」表示。X(i ) ,相應的Y(i ) 也稱爲訓練範例的標籤。函數
假設函數的表達式post
咱們能夠忽略y是離散值的事實來處理分類問題,並使用咱們的舊線性迴歸算法來嘗試預測給定x。可是這種方法的效果很是差。學習
直觀地說,當y∈{0,1}時,h θ(x) 取大於1或小於0的值沒有什麼意義。要解決這個問題,讓咱們改變假設函數的形式 hθ(x)讓它知足 3d
咱們的新形式使用「Sigmoid函數」,也稱爲「邏輯函數」: cdn
hθ(x)會給出輸出爲1的機率。例如:hθ(x) = 0.7,意思就是咱們的輸出爲1的機率是70%,咱們的預測爲0的機率只是咱們機率爲1的補充(例如,若是它是1的機率是70%,那麼它的機率是0 0是30%)。blog
決策邊界get
爲了獲得離散的0或1分類,咱們能夠將假設函數的輸出轉換以下: it
因此
該決策邊界是其中y = 0且其中y = 1,這是由咱們的假設函數建立分離區域的線條。
示例:
在這種狀況下,咱們的決策邊界是一條直線垂直線放置在圖形中X1=5,左邊的全部東西都表示y = 1,而右邊的全部東西都表示y = 0。
實例:
一樣,sigmoid函數g(z)的輸入(例如,θ^TX)不須要是線性的,而且能夠是描述圓的函數(例如,