吳恩達機器學習系列7:邏輯迴歸

大家有沒有天天被垃圾短信騷擾的經歷呢?假設我收到了一條短信,這條短信對我來講只有兩種狀況,要麼是對我有用的,要麼是沒用的。我想經過一個模型去預測該短信是否爲垃圾短信,這時候用原來學過的線性迴歸算法就不太好用了,由於結果只有兩種值,要麼是垃圾短信(假設爲 1),要麼不是垃圾短信(假設爲 0)。這時候咱們要學習一種新的算法去預測這種分類問題,它就是邏輯迴歸算法(Logistic Regression)。邏輯迴歸是一種分類算法。算法


讓咱們來看一下邏輯迴歸算法,邏輯迴歸算法的假設函數 hθ(x) 由如下表達式組成:微信

未命名圖片.png

其中g(z) 稱爲邏輯函數(Logistic Function),又稱爲 Sigmoid Function。g(z) 的函數圖像爲:app

未命名圖片.png

對於邏輯迴歸算法的假設函數 hθ(x) 能夠這樣理解,對於給定的參數 θ ,一組數據(x, y),經過 x 去預測 y = 1  的機率有多大,或 y = 0 的機率有多大。若是要寫成表達式,以下:機器學習

未命名圖片.png

y 只有兩種可能性,要麼爲 0,要麼爲 1,所以經過 x 去預測 y = 1 和 y = 0 的機率之和爲 1。 函數


讓咱們回到 g(z) 的函數圖像,當 z > 0 時,g(z) > 0.5 ,y =1 機率比 y = 0 的機率大,咱們就能夠假設 y =1。當 z < 0 時,g(z) < 0.5 ,y =1 機率比 y = 0 的機率小,咱們就能夠假設 y = 0。那麼預測 y 的值所有取決於 z 的值。舉個例子來講,假設我有如下數據集:學習

未命名圖片.png

我想要對該數據集進行分類,那麼假設函數 hθ(x) 爲:spa

未命名圖片.png

當我給定參數向量的值爲 θ = [-3 1 1] ,那麼 z = -3 + x_1  + x_2  ,如今就變成當  -3 + x_1  + x_2  > 0 時 y = 1。咱們能夠在畫出  -3 + x_1  + x_2  =  0 這條直線:3d

未命名圖片.png

這條直線劃分的兩個範圍,就是 y = 0 和 y = 1 的範圍,這條直線就叫作決策邊界(Decision Boundary。決策邊界只與參數 θ 有關。orm



ps. 本篇文章是根據吳恩達機器學習課程整理的學習筆記。若是想要一塊兒學習機器學習,能夠關注微信公衆號「SuperFeng」,期待與你的相遇。cdn

請關注公衆號.PNG

相關文章
相關標籤/搜索