Coursera-吳恩達機器學習課程筆記-Week1

參考資料:
吳恩達教授機器學習課程
機器學習課程中文筆記git

Week 1

一. 引言

機器學習模型可分爲監督學習Superviese learning(每一個數據集給出了正確的值)和無監督學習Unsupervised learning(數據集只有特徵,沒有對應正確的值)github

機器學習處理的問題能夠分爲Regression迴歸問題(結果是real-valued output連續的值)和Classification問題 (結果是discrete-valued離散的值)算法

二. 單變量線性迴歸(Linear Regression with One Variable)

代價函數Cost function

代價函數用來表現目前模型與結果的擬合狀況。
平方差函數是迴歸問題中經常使用的代價函數
截屏2019-12-30下午4.39.03機器學習

梯度降低 Gradient descent

梯度降低算法用來最小化函數,這裏用來最小化代價函數;
原理:經過將每一個參數不停減去「對應參數偏導數*學習速率「來同時更新每一個參數,從而達到求得局部最小的函數值。函數

線性迴歸模型大體

截屏2019-12-30下午4.28.41

hypothesis 是一個經過一個training set + 機器學習算法訓練出的模型 。學習

對於traning set,找一個合適的學習算法,而後經過訓練最小化代價函數從而獲得最適合的參數。blog

三. 術語

  • Data set = training set
  • example
  • Input = features
  • output = target
  • label
  • Superviese learning
  • Unsupervised learning
相關文章
相關標籤/搜索