視頻學習筆記
(1)機率論與貝葉斯先驗算法
視頻地址:https://www.bilibili.com/video/BV1Tb411H7uC?p=2機器學習
機率論基礎ide
統計量函數
(2)機率論與貝葉斯先驗學習
視頻地址:https://www.bilibili.com/video/BV1Tb411H7uC?p=3
spa
矩陣3d
特徵值和特徵向量視頻
矩陣求導blog
用本身的話總結「梯度」,「梯度降低」和「貝葉斯定理」
- 梯度:在微積分裏面,對多元函數的參數求∂偏導數,把求得的各個參數的偏導數以向量的形式寫出來,就是梯度。好比函數f(x,y), 分別對x,y求偏導數,求得的梯度向量就是(∂f/∂x, ∂f/∂y)T,簡稱grad f(x,y)或者▽f(x,y)。
- 梯度降低:在機器學習算法中,在最小化損失函數時,能夠經過梯度降低思想來求得最小化的損失函數和對應的參數值。梯度降低的幾個概念:步長、特徵、假設函數、損失函數。
- 貝葉斯定理:貝葉斯定理是關於隨機事件A和B的條件機率(或邊緣機率)的一則定理。其中P(A|B)是在B發生的狀況下A發生的可能性。