人工智能早已不是一個新名詞,它的發展歷史已經有幾十年。從80年代早期開始,當時計算機科學家設計出能夠學習和模仿人類行爲的算法。在學習方面,最重要的算法是神經網絡,但因爲模型過於強大,沒有足夠的數據支持,致使不是很成功。然而,在一些更具體的任務中,使用數據來適應函數的想法得到了巨大的成功,這也構成了機器學習的基礎。算法
人工智能早已不是一個新名詞,它的發展歷史已經有幾十年。從80年代早期開始,當時計算機科學家設計出能夠學習和模仿人類行爲的算法。在學習方面,最重要的算法是神經網絡,但因爲模型過於強大,沒有足夠的數據支持,致使不是很成功。然而,在一些更具體的任務中,使用數據來適應函數的想法得到了巨大的成功,這也構成了機器學習的基礎。在模仿方面,人工智能在圖像識別、語音識別和天然語言處理方面有着普遍的應用。專家們花費了大量時間去建立邊緣計算,彩色型材,N-gram語言模型,語法樹等,不料所獲成績平平。網絡
傳統的機器學習機器學習
機器學習(ML)技術在預測中發揮了重要做用,機器學習已經經歷了多代,有一套完備的模型結構,如:函數
每個預測模型都基於必定的算法結構,參數可進行調整。訓練預測模型涉及如下步驟:性能
1.選擇模型結構(例如,邏輯迴歸、隨機森林等)。學習
2.用訓練數據(輸入和輸出)對模型進行反饋。優化
3.學習算法將輸出最優模型(即具備特定參數的模型,使訓練偏差最小化)。雲計算
每一個模型都有本身的特色,在某些任務中表現很好,在其餘方面也卻不盡人意。但通常來講,咱們能夠把它們分爲低功耗(簡單)模型和大功率(複雜)模型。在不一樣的模型之間進行選擇是一個很是棘手的問題。傳統上,使用低功耗/簡單模型比使用高功率/複雜模型要好,緣由以下:人工智能
·在咱們擁有大量的處理能力以前,訓練高功率模型須要花費很長時間。設計
·直到咱們有一個龐大的數據量,培養高功率模型會致使過擬合問題(因爲高功率模型具備豐富的參數,能夠適應多種數據的形狀,咱們可能最終會訓練出一個與當前訓練數據很是相關的模型,而不是對將來數據進行預測)。
然而,選擇低功耗模型存在着所謂的」欠擬合」問題,即模型結構過於簡單,沒法在較複雜的狀況下適應訓練數據。(假設下面的數據有一個二次關係:y=5*X的平方;沒有方法能夠擬合一個線性迴歸:y=A,B,B,B,不管咱們選擇什麼樣的A和B。)
爲了減輕」不適合的問題」,數據科學家一般會應用他們的」領域知識」來產生」輸入特性」,它與輸出有更直接的關係。(例如,返回到二次關係y=5*X的平方),而後經過選取a=5和b=0,擬合線性迴歸。
機器學習的一個主要障礙是這個特徵工程步驟,它要求領域專家在進入培訓過程以前識別重要的信號。特徵工程步驟很是手工,須要大量的領域專門知識,所以成爲當今大多數機器學習任務的主要瓶頸。換句話說,若是咱們沒有足夠的處理能力和足夠的數據,那麼咱們必須使用低功耗/簡單的模型,這須要咱們花大量的時間和精力來建立適當的輸入特性。這是大多數數據科學家花時間作的事情。
神經網絡的迴歸
在2000年代早期,隨着大容量數據時代大量的細粒度事件數據的收集,隨着雲計算和大規模並行處理基礎設施的進步,機器處理能力獲得了極大的提升。咱們再也不侷限於低功耗/簡單的模型。例如,當今最流行的兩種主流機器學習模型是隨機森林和梯度加強樹。然而,儘管它們都很是強大,並提供非線性模型擬合訓練數據,數據科學家仍然須要仔細地建立功能,以達到良好的性能。
與此同時,計算機科學家從新使用了許多層的神經網絡來完成這些人類模擬任務。這給新出生的DNN(深度神經網絡)在圖像分類和語音識別的任務提供了一個重大的突破。
DNN的主要區別是,你能夠發出原信號,(例如,RGB像素值)直接到DNN沒有創造任何特定於域的輸入特徵。經過多層次的神經元(這就是爲何它被稱爲」深」的神經網絡),可以自動生成相應的功能,經過各層最後提供了一個很好的預測。這大大節省了」特徵工程」的努力,也是數據科學家遇到的一個主要瓶頸。
DNN也演變成許多不一樣的網絡結構,因此咱們美國有線電視新聞網(卷積神經網絡),RNN(神經網絡)、LSTM(長短時間記憶)、GAN(生成對抗網絡),遷移學習,注意模型…整個光譜被稱爲」深度學習」,這是當今全機器學習界關注的焦點。
強化學習
另外一個關鍵的部分是如何模仿一我的(或動物)學習。想象一下感知/行爲/獎賞週期的很是天然的動物行爲。一我的或動物首先會經過感知他或她處於什麼狀態來理解環境。基於這一點,他或她會選擇一個」動做」把他或她帶到另外一個」狀態」,而後他或她會獲得一個」獎勵」,如此循環重複。
這種學習方法(稱爲強化學習)與傳統的有監督機器學習的曲線擬合方法有很大的不一樣。特別是,強化學習的發生很是迅速,由於每個新的反饋(如執行一個動做和得到一個獎勵)當即被髮送來影響隨後的決定。強化學習已經得到了巨大的成功在自動駕駛汽車以及AlphaGO(下棋機器人)。
強化學習也提供了一個平滑的預測和優化集成,由於它保持一個信念的當前狀態和可能的轉移機率時採起不一樣的行動,而後做出決定,哪些行動會帶來最好的結果。
深度學習+強化學習=人工智能
與經典機器學習技術相比,深度學習提供了一個更強大的預測模型,一般能產生良好的預測。與經典的優化模型相比,強化學習提供了更快的學習機制,而且更適應環境的變化。