從事AI行業最重要的知識莫過於數學了,或者說對於計算機領域乃至工科領域都是很重要的。 算法
對於大多數的新手來講,如何入手人工智能其實都是一頭霧水,好比到底須要哪些數學基礎、是否要有工程經驗、對於深度學習框架應該關注什麼等等。 框架
那麼,學習人工智能該從哪裏開始呢?人工智能的學習路徑又是怎樣的?
機器學習
數學基礎知識蘊含着處理智能問題的基本思想與方法,也是理解複雜算法的必備要素。今天的種種人工智能技術歸根到底都創建在數學模型之上,要了解人工智能,首先要掌握必備的數學基礎知識,具體來講包括:
函數
線性代數:如何將研究對象形式化?工具
機率論:如何描述統計規律?學習
數理統計:如何以小見大?人工智能
事實上,線性代數不單單是人工智能的基礎,更是現代數學和以現代數學做爲主要分析方法的衆多學科的基礎。從量子力學到圖像處理都離不開向量和矩陣的使用。而在向量和矩陣背後,線性代數的核心意義在於提供了⼀種看待世界的抽象視角:萬事萬物均可以被抽象成某些特徵的組合,並在由預置規則定義的框架之下以靜態和動態的方式加以觀察。 cdn
着重於抽象概念的解釋而非具體的數學公式來看,線性代數要點以下:線性代數的本質在於將具體事物抽象爲數學對象,並描述其靜態和動態的特性;向量的實質是 n 維線性空間中的靜止點;線性變換描述了向量或者做爲參考系的座標系的變化,能夠用矩陣表示;矩陣的特徵值和特徵向量描述了變化的速度與方向。視頻
總之,線性代數之於人工智能如同加法之於高等數學,是一個基礎的工具集。
對象
除了線性代數以外,機率論也是人工智能研究中必備的數學基礎。隨着鏈接主義學派的興起,機率統計已經取代了數理邏輯,成爲人工智能研究的主流工具。在數據爆炸式增加和計算力指數化加強的今天,機率論已經在機器學習中扮演了核心角色。
同線性代數同樣,機率論也表明了一種看待世界的方式,其關注的焦點是無處不在的可能性。頻率學派認爲先驗分佈是固定的,模型參數要靠最大似然估計計算;貝葉斯學派認爲先驗分佈是隨機的,模型參數要靠後驗機率最大化計算;正態分佈是最重要的一種隨機變量的分佈。
在人工智能的研究中,數理統計一樣不可或缺。基礎的統計理論有助於對機器學習的算法和數據挖掘的結果作出解釋,只有作出合理的解讀,數據的價值纔可以體現。數理統計根據觀察或實驗獲得的數據來研究隨機現象,並對研究對象的客觀規律作出合理的估計和判斷。
雖然數理統計以機率論爲理論基礎,但二者之間存在方法上的本質區別。機率論做用的前提是隨機變量的分佈已知,根據已知的分佈來分析隨機變量的特徵與規律;數理統計的研究對象則是未知分佈的隨機變量,研究方法是對隨機變量進行獨立重複的觀察,根據獲得的觀察結果對原始分佈作出推斷。
用一句不嚴謹但直觀的話講:數理統計能夠當作是逆向的機率論。 數理統計的任務是根據可觀察的樣本反過來推斷整體的性質;推斷的工具是統計量,統計量是樣本的函數,是個隨機變量;參數估計經過隨機抽取的樣原本估計整體分佈的未知參數,包括點估計和區間估計;假設檢驗經過隨機抽取的樣原本接受或拒絕關於整體的某個判斷,經常使用於估計機器學習模型的泛化錯誤率。
以上參考【AI前線】原文連接:http://t.cn/RTzPO4A
第 1 章:微積分
1: 【錄播】 偏導數及其運算
2: 【錄播】 全微分及多元複合函數求導
3: 【錄播】 方向與梯度
4: 【錄播】 微分中值定理
5: 【錄播】 泰勒公式
6: 【錄播】 牛頓法與梯度降低法
7: 【錄播】 牛頓-萊布尼茨公式
第 2 章:機率論與數理統計
8: 【錄播】 貝葉斯公式(加法與減法公式)
9: 【錄播】 貝葉斯公式(條件機率與乘法公式)
10: 【錄播】 全機率與貝葉斯公式
11: 【錄播】 貝葉斯分類器
12: 【錄播】 參數估計基本思想及點估計
13: 【錄播】 矩估計法和最大似然法
15: 【錄播】 估計量的評選標準
16: 【錄播】 區間估計
17: 【錄播】 先驗分佈與後驗分佈
第 3 章:線性代數
18: 【錄播】 矩陣的概念及三個特殊矩陣
19: 【錄播】 矩陣的加法
20: 【錄播】 矩陣的減法
21: 【錄播】 矩陣的數乘
22: 【錄播】 矩陣的乘法
23: 【錄播】 矩陣的轉置
24: 【錄播】 矩陣的逆
25: 【錄播】 分塊矩陣及其運算
26: 【錄播】 矩陣的秩
27: 【錄播】 n維向量空間
28: 【錄播】 線性相關性
29: 【錄播】 線性空間1
30: 【錄播】 線性空間2
31: 【錄播】 線性空間3
32: 【錄播】 線性空間4
33: 【錄播】 線性變換
34: 【錄播】 特徵值與特徵向量