人工智能、機器學習、深度學習三者之間的關係

今年早些時候,當谷歌 DeepMind 團隊的 AlphaGo 戰勝了李世石時,媒體就用人工智能、機器學習和深度學習這三個術語來描述 DeepMind 是如何取得勝利的。這三個名詞都是 AlphaGo 大勝李世石的緣由中的一部分,可是它們並不相同。下面咱們就來解釋一下。
理解三者之間關係的最簡便方法就是將它們視覺化爲一組同心圓——首先是最大的部分人工智能——而後是後來興旺的機器學習——最後是促使當下人工智能大爆發的深度學習——在最裏層。
<ignore_js_op>
從蕭條到繁榮
自從 1956 年幾個計算機科學家在達特茅斯會議上彙集並開闢了人工智能這一領域,人工智能就進入了咱們的想象,並在實驗研究中進行着醞釀。在過去的幾十年裏,人工智能以及輪番被譽爲人類文明取得最美好將來的關鍵,或者是做爲一個頭腦發燒的輕率概念被扔進了科技垃圾堆中。坦白說直到 2012 年,它就這樣在兩者之間交雜。
過去的幾年裏,尤爲從 2015 年開始,人工智能開始爆發了。這很大程度上與 GPU 的普遍應用有關,爲了使並行處理更快、更便宜、更強大。這也與近乎無限的存儲能力和各種數據洪流(全部的大數據運動)——圖像、文本、交易、測繪數據,只要你說得出來——一道進行。
讓咱們梳理一遍計算機科學家是如何從蕭條——直到 2012 年——到繁榮,開發出天天由成千上百萬的人使用的應用。
人工智能——機器詮釋的人類智能
<ignore_js_op>
King me:下西洋跳棋的計算機程序是上世紀 50 年代形成過一陣轟動的一些早期人工智能案例
回到 1956 年夏天的那場會議,人工智能先驅們的夢想是藉由新興計算機構建具備人類智力特徵的複雜機器。這就是所謂的「通用人工智能(General AI)」的概念——擁有人類的全部感受(甚至可能更多)、全部理智,像人類同樣思考的神奇機器。
你已經在電影中無休止地看到過這些被咱們當作朋友的機器,好比《星球大戰》中的 C-3PO  以及成爲人類敵人的機器——終結者。通用人工智能機器向來有充足的理由出如今電影和科幻小說中;咱們不能阻止,至少如今還不行。
咱們能作什麼?這就到了「狹義人工智能(Narrow AI)」的概念。指的是可以將特殊任務處理得同人類同樣好,或者更好的技術。狹義人工智能的相關案例好比有 Pinterest 上的圖像分類、Facebook 中的人臉識別。
這些是狹義人工智能在實踐中的例子。這些技術展現了人類智能的一些方面。可是如何作到的呢?那個智能來自哪裏?因此接下來看第二個同心圓,機器學習。
機器學習——實現人工智能的一種方式
<ignore_js_op>
Spam free diet:機器學習幫你清理收件箱中的(大部分)垃圾郵件。
機器學習最基礎的是運用算法來分析數據、從中學習、測定或預測現實世界某些事。因此不是手動編碼帶有特定指令設定的軟件程序來完成某個特殊任務,而是使用大量的數據和算法來「訓練」機器,賦予它學習如何執行任務的能力。
機器學習直接源自早期那幫人工智能羣體,演化多年的算法包括了決策樹學習(decision tree learning)、概括邏輯編程(inductive logic programming)。其餘的也有聚類(clustering)、強化學習(reinforcement learning)和貝葉斯網絡(Bayesian networks)等。咱們知道,這些早期機器學習方法都沒有實現通用人工智能的最終目標,甚至沒有實現狹義人工智能的一小部分目標。
事實證實,多年來機器學習的最佳應用領域之一是計算機視覺,儘管它仍然須要大量的手工編碼來完成工做。人們會去寫一些手寫分類器,像是邊緣檢測過濾器(edge detection filters)使得程序能夠識別對象的啓止位置;形狀檢測(shape detection)以肯定它是否有八條邊;一個用來識別單詞「S-T-O-P」的分類器。從這些手寫分類器中他們開發出可以理解圖像的算法,「學習」斷定它是不是一箇中止標誌。
這很好,但還不夠好。特別是有霧天氣標誌不徹底可見的狀況下,或者被樹遮住了一部分。計算機視覺和圖像檢測直到目前都不能與人類相媲美,是由於它太過脆弱,太容易出錯了。
是時間和正確的學習算法改變了這一切。
深度學習——一種實現機器學習的技術

 

Herding cats:從 YouTube 視頻中挑選貓咪圖片,是深度學習的第一次突破性表現之一
源自最先進行機器學習那羣人的另外一種算法是人工神經網絡(Artificial Neural Networks),它已有幾十年的歷史。神經網絡的靈感來自於咱們對大腦生物學的理解——全部神經元之間的相互鏈接。可是不像生物大腦中的任何神經元,能夠在必定的物理距離內鏈接到任何其餘神經元,這些人工神經網絡的層、鏈接和數據傳播方向是離散的。
好比你能夠把一個圖像切成一堆碎片並輸入到神經網絡的第一層中。而後第一層的單個神經元們將數據傳遞給第二層。第二層神經元將數據傳給第三層,如此一直傳到最後一層並輸出最終結果。
每一個神經元分配一個權重到它的輸入——評估所執行的任務的準確或不許確。而後最終的輸出由全部這些權重來肯定。因此想一想那個中止標誌的例子。一箇中止標誌圖像的特徵被切碎並由神經元來「檢查」——它的形狀、它的消防紅色彩、它的獨特字母、它的交通標誌尺寸以及和它的運動或由此帶來的缺失。神經網絡的任務是斷定它是否爲一箇中止標誌。這提出了一個「機率向量」,它真是一個基於權重的高度受訓的猜想。在咱們的例子中,系統可能有 86% 的把握認爲圖像是一箇中止標誌,7% 的把握認爲這是一個限速標誌,5% 的把握認爲這是一隻被卡在樹上的風箏,等等——而後網絡架構告訴神經網絡結果的正確與否。
甚至這個例子都有些超前了,由於直到如今,神經網絡都被人工智能研究社區避開了。自從最先的人工智能起,他們一直在作這方面研究,而「智能」成果收效甚微。問題很簡單,即最基本的神經網絡屬於計算密集型,這並非一個實用的方法。不過,由多倫多大學的 Geoffrey Hinton 帶領的異端研究小組一直在繼續相關研究工做,最終在超級計算機上運行並行算法證實了這個概念,但這是直到 GPU 被部署以後才兌現的諾言。
若是咱們再回到中止標誌的例子,當網絡正在進行調整或者「訓練」時,出現大量的錯誤答案,這個機會是很是好的。它須要的就是訓練。它須要看到成千上萬,甚至數以百萬計的圖像,直到神經元的輸入權重被精確調整,從而幾乎每一次都能獲得正確答案——不管有霧沒霧,晴天仍是雨天。在這一點上,神經網絡已經教會了本身中止標誌看起來會是什麼樣的;或者在 Facebook 例子中就是識別媽媽的臉;或者吳恩達 2012 年在谷歌所作的貓的圖片。
吳恩達的突破在於從根本上使用這些神經網絡 並將它們變得龐大,增長了層數和神經元的數量,而後經過系統運行大量的數據來訓練它。吳恩達使用了 1000 萬個 YouTube 視頻的圖像。他將「深度」運用在深度學習中,這就描述了這些神經網絡的全部層。
現在,在一些場景中經過深度學習訓練機器識別圖像,作得比人類好,從識別貓咪到肯定血液中的癌症指標和磁共振成像掃描中的腫瘤指標。谷歌的 AlphaGo 學會了遊戲,並被訓練用於 Go 比賽。經過反覆與本身對抗來調整本身的神經網絡。
感謝深度學習,讓人工智能有一個光明的將來。
深度學習 已經實現了許多機器學習方面的實際應用和人工智能領域的全面推廣。深度學習解決了許多任務讓各類機器助手看起來有可能實現。無人駕駛機車、更好的預防醫療,甚至是更好的電影推薦,現在都已實現或即將實現。人工智能在當下和將來。有了深度學習,人工智能甚至能夠達到咱們長期所想象的科幻小說中呈現的狀態。我拿走你的 C-3PO,你能夠留着終結者。
相關文章
相關標籤/搜索