Machine Learning(機器學習)之三

Machine Learning(機器學習)之二:juejin.im/post/5bd1d1…算法

分類問題

要嘗試分類,一種方法是使用線性迴歸並將大於0.5的全部預測映射爲1,將全部小於0.5的預測映射爲0.可是,此方法不能很好地工做,由於分類實際上不是線性函數。機器學習

分類問題就像迴歸問題同樣,除了咱們如今想要預測的值只佔用少許離散值。如今,咱們將重點關注二進制分類 問題,其中y只能處理兩個值0和1.(咱們在這裏所說的大多數也將推廣到多類狀況。)例如,若是咱們正在嘗試爲電子郵件構建垃圾郵件分類器X (i ) ,若是是一封垃圾郵件,則y可能爲1,不然爲0。所以,y∈{0,1}。0也稱爲負類,1表示正類,它們有時也用符號「 - 」和「+」表示。X(i ) ,相應的Y(i ) 也稱爲訓練範例的標籤。函數

假設函數的表達式post

咱們能夠忽略y是離散值的事實來處理分類問題,並使用咱們的舊線性迴歸算法來嘗試預測給定x。可是這種方法的效果很是差。學習

直觀地說,當y∈{0,1}時,h θ(x) 取大於1或小於0的值沒有什麼意義。要解決這個問題,讓咱們改變假設函數的形式 hθ(x)讓它知足 3d

咱們的新形式使用「Sigmoid函數」,也稱爲「邏輯函數」: cdn

下圖顯示了sigmoid函數的樣子:
此處所示的函數g(z)將任何實數映射到(0,1)區間,這使得將任意值函數轉換爲更適合分類的函數很是有用。

hθ(x)會給出輸出爲1的機率。例如:hθ(x) = 0.7,意思就是咱們的輸出爲1的機率是70%,咱們的預測爲0的機率只是咱們機率爲1的補充(例如,若是它是1的機率是70%,那麼它的機率是0 0是30%)。blog

決策邊界get

爲了獲得離散的0或1分類,咱們能夠將假設函數的輸出轉換以下: it

咱們的邏輯函數g的行爲方式是當其輸入大於或等於零時,其輸出大於或等於0.5:
注:

因此

從這些陳述咱們如今能夠說:

該決策邊界是其中y = 0且其中y = 1,這是由咱們的假設函數建立分離區域的線條。

示例:

在這種狀況下,咱們的決策邊界是一條直線垂直線放置在圖形中X1=5,左邊的全部東西都表示y = 1,而右邊的全部東西都表示y = 0。

實例:

一樣,sigmoid函數g(z)的輸入(例如,θ^TX)不須要是線性的,而且能夠是描述圓的函數(例如,

)或任何符合咱們數據的形狀。

相關文章
相關標籤/搜索