機器學習相關數學基礎

視頻學習筆記

(1)機率論與貝葉斯先驗算法

視頻地址:https://www.bilibili.com/video/BV1Tb411H7uC?p=2機器學習

機率論基礎ide

 

 

統計量函數

 

 

(2)機率論與貝葉斯先驗學習

視頻地址:https://www.bilibili.com/video/BV1Tb411H7uC?p=3
spa

 矩陣3d

 

 

 特徵值和特徵向量視頻

 

 矩陣求導blog

 

 用本身的話總結「梯度」,「梯度降低」和「貝葉斯定理」

  • 梯度:在微積分裏面,對多元函數的參數求∂偏導數,把求得的各個參數的偏導數以向量的形式寫出來,就是梯度。好比函數f(x,y), 分別對x,y求偏導數,求得的梯度向量就是(∂f/∂x, ∂f/∂y)T,簡稱grad f(x,y)或者▽f(x,y)。
  • 梯度降低:在機器學習算法中,在最小化損失函數時,能夠經過梯度降低思想來求得最小化的損失函數和對應的參數值。梯度降低的幾個概念:步長、特徵、假設函數、損失函數。
  • 貝葉斯定理:貝葉斯定理是關於隨機事件A和B的條件機率(或邊緣機率)的一則定理。其中P(A|B)是在B發生的狀況下A發生的可能性。
相關文章
相關標籤/搜索