這是機器學習的第一週課程,涉及到的內容較少,主要是認識一下什麼是機器學習以及機器學習兩個主要的分類:有監督學習和無監督學習。另外,經過一個最基礎的線性迴歸模型來介紹機器學習中的一些相關的概念。算法
A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T,as measured by P,if its peformance on T,as measured by P,improves with experience E.——Tom Mitchell(1998)機器學習
這是Tom Mitchell在1998年給出的較爲正式的關於「機器學習」這個概念的定義(這個定義好押韻啊)。函數
機器學習在咱們如今的生活中已經很常見,即便你本身可能尚未意識到。好比,蘋果的Siri,微軟的Contana,訊飛的語音識別,淘寶、京東等平臺的推薦系統等等,都是機器學習在現實生活中的實際應用。咱們能夠將機器學習簡單理解爲:研究如何使計算機具有必定學習能力的領域。學習
監督學習和無監督學習是機器學習算法的兩種不一樣類型。orm
監督學習的基本思想是:咱們有一些訓練樣本,而且這些訓練樣本都具備對應的標籤或者「正確答案」,使用這些訓練樣本進行模型訓練,而後將未知的數據做爲模型的輸入,從而獲得預測的標籤或者「正確答案」。監督學習最多見的兩類是迴歸問題和分類問題。迴歸問題獲得的模型輸出是連續的,而分類問題獲得的模型輸出是離散的。ip
無監督學習的基本思想是:咱們有一些訓練樣本,可是,這些樣本並無對應的標籤,或者都具備相同的標籤,機器學習算法須要在這種狀況下本身找出數據中具備的某種結構,從而達到學習的目的。好比聚類算法。get
簡單通俗的說,監督學習是訓練集有標籤的學習算法,無監督學習是訓練集沒有標籤的學習算法。監督學習是咱們教計算機如何去學習,經過告訴它對應的樣本對應的答案。無監督學習須要機器本身從樣本中學習,分析數據中存在的關聯。標籤是區分監督學習和無監督學習的一個主要標誌。it
監督學習的通常模型表示以下圖:io
咱們將訓練集做爲學習算法的輸入,而後學習算法能夠從這些訓練集中學習得出某種模型(獲得假設函數的參數),再將未知數據做爲模型的輸入數據,從而獲得模型求出的結果,這個結果就是機器學習算法經過學習而生成的結果。form
線性迴歸是咱們在高中的時候就接觸過的知識,可是在當時也是隻是瞭解,並無過多的認識。
維基百科對線性迴歸的定義以下:
在統計學中,線性迴歸(Linear regression)是利用稱爲線性迴歸方程的最小二乘函數對一個或多個自變量和因變量之間關係進行建模的一種迴歸分析。這種函數是一個或多個稱爲迴歸係數的模型參數的線性組合。只有一個自變量的狀況稱爲簡單迴歸,大於一個自變量狀況的叫作多元迴歸。
在本週課程中,用於房價預測的單變量線性迴歸模型的函數表示就是一個一元一次函數,該函數中包含兩個未知參數,也是須要求解的模型參數。
代價函數能夠用來評判一個模型對訓練數據的擬合程度,特別是在線性迴歸模型中,它是一個關於代求解參數的函數。與線性迴歸模型中的假設函數不一樣,假設函數是關於訓練集中訓練樣本特徵的函數。代價函數的表示以下圖所示:
每組參數均可以獲得某個具體的模型,可是通常的,模型預測出來的結果和實際結果都存在必定的偏差,將全部的差值的平方累加起來,再進行一些修正(1/2m),就是這組參數對應的代價。
梯度降低算法是一種用來求解模型參數得方法,其目標是最小化代價函數。梯度降低算法的定義以下圖所示:
梯度降低算法每次迭代時,修改代價函數的參數(也就是Θ0和Θ1),從而但願達到最小化代價函數的目的。
很基礎的線性代數知識,找本教材複習一下就能夠。