|
微積分學,數學中的基礎分支。內容主要包括函數、極限、微分學、積分學及其應用。函數是微積分研究的基本對象,極限是微積分的基本概念,微分和積分是特定過程特定形式的極限算法
微積分/高等數學。在機器學習中,微積分主要用到了微分部分,做用是求函數的極值,就是不少機器學習庫中的求解器(solver)所實現的功能。在機器學習裏會用到微積分中的如下知識點:機器學習
其中最核心的是記住多元函數的泰勒展開公式,根據它咱們能夠推導出機器學習中經常使用的梯度降低法,牛頓法,擬牛頓法等一系列最優化方法:函數
|
|
線性代數的理論是計算技術的基礎,同系統工程,優化理論及穩定性理論等有着密切聯繫,隨着計算技術的發展和計算機的普及,線性代數做爲理工科的一門基礎課程日益受到重視。線性代數這門課程的特色是概念比較抽象,概念之間聯繫很密切。內容包括行列式,矩陣,向量空間,線性方程組,矩陣的類似對角化,二次型,線性空間與線性變換等, 機器學習中主要用到如下知識點工具
|
|
主要內容包括:機率論的基本概念、隨機變量及其機率分佈、數字特徵、大數定律與中心極限定理、統計量及其機率分佈、參數估計和假設檢驗、迴歸分析、方差分析、馬爾科夫鏈等內容, 機器學習中主要用到如下知識點學習
|
|
凸優化,或叫作凸最優化,凸最小化,是數學最優化的一個子領域,研究定義於凸集中的凸函數最小化的問題。凸優化在某種意義上說較通常情形的數學最優化問題要簡單,譬如在凸優化中局部最優值一定是全局最優值。凸函數的凸性使得凸分析中的有力工具在最優化問題中得以應用優化
凸優化是機器學習中常常會說起的一個概念,這是一類特殊的優化問題,它的優化變量的可行域是凸集,目標函數是凸函數。凸優化最好的性質是它的全部局部最優解就是全局最優解,所以求解時不會陷入局部最優解。若是一個問題被證實爲是凸優化問題,基本上已經宣告此問題獲得瞭解決。在機器學習中,線性迴歸、嶺迴歸、支持向量機、logistic迴歸等不少算法求解的都是凸優化問題。對象
|
|