做者:張江html
製造出可以像人類同樣思考的機器是科學家們最偉大的夢想之中的一個。用智慧的大腦解讀智慧必將成爲科學發展的終極。算法
而驗證這樣的解讀的最有效手段,莫過於再造一個智慧大腦——人工智能(Artificial Intelligence,AI)。編程
人們對人工智能的瞭解恐怕主要來自於好萊塢的科幻片。markdown
這些熒幕上的機器(見圖1-1)要麼殺人如麻。如《終結者》《黑客帝國》。要麼小巧可愛,如《機器人瓦利》。要麼多愁善感,如《人工智能》;還有一些則大音希聲、大象無形。如《黑客帝國》中的Matrix網絡,以及《超驗駭客》《超體》。網絡
所有這些熒幕上的人工智能都具有一些共同特徵:異常強大、能力非凡。dom
然而,現實中的人工智能卻與這些熒幕上的機器人相差甚遠,但它們的確已經在咱們身邊。機器學習
搜索引擎、郵件過濾器、智能語音助手Siri、二維碼掃描器、遊戲中的NPC(非玩家扮演角色)都是近60年來人工智能技術有用化的產物。這些人工智能都是一個個單一功能的「裸」程序,沒有堅硬的、靈活的軀殼。更沒有想象中那麼善解人意,甚至不是一個完整的個體。爲何想象與現實存在那麼大的差距?這是因爲,真正的人工智能的探索之路充滿了波折與不肯定。函數
歷史上,研究人工智能就像是在坐過山車。忽上忽下。夢想的肥皂泡一次次被冰冷的科學事實戳破,科學家們不得不一次次又一次回到夢的起點。做爲一個獨立的學科,人工智能的發展很是奇葩。post
它不像其它學科那樣從分散走向統一,而是從1956年創立以來就不斷地分裂,造成了一系列大大小小的子領域。性能
或許人工智能註定就是大雜燴,或許統一的時刻還未到來。
然而,人們對人工智能的夢想倒是永遠不會磨滅的。
本章將按歷史的順序介紹人工智能的發展。從早期的哥德爾、圖靈等人的研究到「人工智能」一詞的提出。再到後期的人工智能三大學派:符號學派、鏈接學派和行爲學派,以及近年來的新進展:貝葉斯網絡、深度學習、通用人工智能。最後咱們將對將來的人工智能進行展望。
說來奇怪,人工智能之夢開始於一小撮20世紀初期的數學家。這些人真正作到了用方程推進整個世界。
歷史的車輪倒回到1900年。世紀之交的數學家大會在巴黎如期召開,德高望重的老數學家大衛•希爾伯特(David Hilbert)莊嚴地向全世界數學家們宣佈了23個未解決的難題。這23道難題道道經典。而當中的第二問題和第十問題則與人工智能密切相關。並終於促成了計算機的發明。
希爾伯特的第二問題來源於一個大膽的想法——運用公理化的方法統一整個數學,並運用嚴格的數學推理證實數學自身的正確性。這個野心被後人稱爲希爾伯特綱領,儘管他本身沒能證實,但卻把這個任務交給了後來的年輕人,這就是希爾伯特第二問題:證實數學系統中應同一時候具有一致性(數學真理不存在矛盾)和完備性(隨意真理都可以被描寫敘述爲數學定理)。
希爾伯特的勃勃野心無疑激勵着每一位年輕的數學家,當中就包含一個來自捷克的年輕人:庫爾特•哥德爾(Kurt Godel)。他起初是希爾伯特的忠實粉絲,並致力於攻克第二問題。然而。他很是快發現,本身以前的努力都是徒勞的。因爲希爾伯特第二問題的斷言根本就是錯的:不論什麼足夠強大的數學公理系統都存在着瑕疵:一致性和完備性不能同一時候具有。很是快。哥德爾倒戈了,他背叛了希爾伯特,但卻推進了整個數學的發展,於1931年提出了被美國《時代週刊》評選爲20世紀最有影響力的數學定理:哥德爾不完備性定理。
儘管早在1931年。人工智能學科尚未創建,計算機也沒有發明,但是哥德爾定理彷佛已經爲人工智能提出了警告。
這是因爲假設咱們把人工智能也看做一個機械化運做的數學公理系統,那麼依據哥德爾定理。一定存在着某種人類可以構造、但是機器沒法求解的人工智能的「軟肋」。
這就好像咱們沒法揪着本身的腦殼脫離地球,數學沒法證實數學自己的正確性,人工智能也沒法僅憑自身解決所有問題。因此,存在着人類可以求解但是機器卻不能解的問題。人工智能不可能超過人類。
但問題並無這麼簡單,上述命題成立的一個前提是人與機器不一樣,不是一個機械的公理化系統。然而,這個前提是否成立迄今爲止咱們並不知道,因此這一問題仍在爭論之中。
關於此觀點的延伸討論請參見本書第4章。
另一個與哥德爾年齡相仿的年輕人被希爾伯特的第十問題深深地吸引了。並決定爲此奉獻一輩子。這我的就是艾倫•圖靈(Alan Turing)。
希爾伯特第十問題的表述是:「是否存在着斷定隨意一個丟番圖方程有解的機械化運算過程。
」這句話的前半句比較晦澀,咱們可以先忽略。因爲後半句是重點。「機械化運算過程」用今天的話說就是算法。然而,當年。算法這個概念仍是至關模糊的。
因而。圖靈設想出了一個機器——圖靈機。它是計算機的理論原型,圓滿地刻畫出了機械化運算過程的含義。並終於爲計算機的發明鋪平了道路。
圖靈機模型(見圖1-2)形象地模擬了人類進行計算的過程。假如咱們但願計算隨意兩個3位數的加法:139 + 919。咱們需要一張足夠大的草稿紙以及一支可以在紙上不停地塗塗寫寫的筆。以後,咱們需要從個位到百位一位一位地依照10之內的加法規則完畢加法。
咱們還需要考慮進位,好比9 + 9 = 18,這個1就要加在十位上。
咱們是經過在草稿紙上記下適當的標記來完畢這樣的進位記憶的。
最後,咱們把計算的結果輸出到了紙上。
圖靈機把所有這些過程都模型化了:草稿紙被模型化爲一條無限長的紙帶,筆被模型化爲一個讀寫頭,固定的10之內的運算法則模型化爲輸入給讀寫頭的程序,對於進位的記憶則被模型化爲讀寫頭的內部狀態。
因而。設定好紙帶上的初始信息,以及讀寫頭的當前內部狀態和程序規則,圖靈機就可以執行起來了。它在每一時刻讀入一格紙帶的信息,並依據當前的內部狀態,查找對應的程序,從而給出下一時刻的內部狀態並輸出信息到紙帶上。
關於圖靈機的詳細描寫敘述,請參見本書第2章。
圖靈機模型一經提出就獲得了科學家們的承認,這無疑給了圖靈莫大的鼓舞。他開始鼓起勇氣。展開想象的翅膀。進一步思考圖靈機運算能力的極限。1940年,圖靈開始認真地思考機器可否夠具有類人的智能。
他當即意識到這個問題的要點其實並不在於怎樣打造強大的機器,而在於咱們人類怎樣看待智能。即依據什麼標準評價一臺機器是否具有智能。因而,圖靈在1950年發表了《機器能思考嗎?》一文,提出了這樣一個標準:假設一臺機器經過了「圖靈測試」,則咱們必須接受這臺機器具備智能。那麼,圖靈測試究竟是怎樣一種測試呢?
如圖1-3所看到的,假設有兩間密閉的屋子,當中一間屋子裏面關了一我的,還有一間屋子裏面關了一臺計算機:進行圖靈測試的人工智能程序。
而後。屋子外面有一我的做爲測試者。測試者僅僅能經過一根導線與屋子裏面的人或計算機交流——與它們進行聯網聊天。假如測試者在有限的時間內沒法推斷出這兩間屋子裏面哪個關的是人。哪個是計算機,那麼咱們就稱屋子裏面的人工智能程序經過了圖靈測試。並具有了智能。其實,圖靈當年在《機器能思考嗎?》一文中設立的標準至關寬泛:僅僅要有30%的人類測試者在5分鐘內沒法分辨出被測試對象,就可以以爲程序經過了圖靈測試。
2014年6月12日。一個名爲「尤金」(Eugene Goostman)的聊天程序(見圖1-4)成功地在5分鐘內蒙騙了30%的人類測試者,從而達到了圖靈當年提出來的標準。
很是多人以爲。這款程序具備劃時代的意義,它是自圖靈測試提出64年後第一個經過圖靈測試的程序。但是。很是快就有人提出這僅僅只是是一個噱頭,該程序並無宣傳的那麼厲害。好比。谷歌公司的project總監、將來學家雷•庫茲韋爾(Ray Kurzweil)就表示。這個聊天機器人號稱僅僅有13歲,並使用第二語言來回答問題,這成爲了該程序重大缺陷的藉口。另外,測試者僅僅有5分鐘與之展開互動,這大大添加了他們在短時間內被「欺騙」的機率。
因而可知,圖靈將智能等同於符號運算的智能表現,而忽略了實現這樣的符號智能表現的機器內涵。這樣作的優勢是可以將所謂的智能本質這一問題繞過去,它的代價是人工智能研製者們會把注意力集中在怎樣讓程序欺騙人類測試者上,甚至可以不擇手段。
因此,對於將圖靈測試做爲評判機器具有智能的惟一標準,很是多人開始質疑。因爲人類智能還包含諸如對複雜形式的推斷、創造性地解決這個問題的方法等,而這些特質都沒法在圖靈測試中體現出來。
總而言之,圖靈的研究無疑大大推進了人工智能的進展。
然而。圖靈本人卻於1954年死於一個被劇毒氰化物注射過的蘋果,享年僅僅42歲。
傳聞他是一名同性戀,這在當時的英國是非法的。因而英國政府強行給他注射一種藥物抑制他的同性戀傾向,這致使他終於在治療期間痛苦萬分地自殺了。聽說,蘋果公司爲了記念這位計算機科學之父。特地用那個被圖靈咬掉一口的蘋果做爲公司的logo。1966年,美國計算機協會設立了以圖靈命名的圖靈獎。以專門獎勵那些對計算機事業做出重要貢獻的人。這至關於計算機領域的諾貝爾獎。
就在哥德爾絞盡腦汁捉摸希爾伯特第二問題的時候。另一個來自匈牙利布達佩斯的天才少年也在思考相同的問題,他就是大名鼎鼎的約翰•馮•諾依曼(John von Neumann)。
然而,馮•諾依曼遠沒有哥德爾走運。到了1931年。馮•諾依曼即將在希爾伯特第二問題上得到突破,卻忽然得知哥德爾已經發表了哥德爾定理。先他一步。因而。馮•諾依曼一氣之下開始轉行研究起了量子力學。就在他的量子力學研究即將結出碩果之際,另一位天才物理學家保羅•狄拉克(Paul Dirac)又一次搶了他的風頭,出版了《量子力學原理》,並一鳴驚人。
這比馮•諾依曼的《量子力學的數學基礎》整整早了兩年。
受到兩次打擊以後,馮•諾依曼開始把部分注意力從基礎數學轉向了project應用領域,終於大獲成功。1945年,憑藉出衆的才華,馮•諾依曼在火車上完畢了早期的計算機EDVAC的設計,並提出了咱們現在熟知的「馮•諾依曼體系結構」。
馮•諾依曼的計算機與圖靈機是一脈相承的,但最大的不一樣就在於。馮•諾依曼的讀寫頭再也不需要一格一格地讀寫紙帶。而是依據指定的地址,隨機地跳到對應的位置完畢讀寫。
這也就是咱們今天所說的隨機訪問存儲器(Random Access Memory,RAM)的前身。關於馮•諾依曼體系結構和現代計算機的工做原理,請參見本書第3章。
馮•諾依曼的計算機終於使得數學家們的研究結出了碩果,也終於推進着人類歷史進入了信息時代,使得人工智能之夢成爲了可能。
咱們要介紹的最後一位數學家是美國的天才神童諾伯特•維納(Norbert Wiener)。聽說維納三歲的時候就開始在父親的影響下讀天文學和生物學的圖書。七歲的時候他所讀的物理學和生物學的知識範圍已經超出了他父親。他年紀輕輕就掌握了拉丁語、希臘語、德語和英語,而且涉獵人類科學的各個領域。後來,他留學歐洲,曾前後拜師於羅素、希爾伯特、哈代等哲學、數學大師。
維納在他70年的科學生涯中。前後涉足數學、物理學、project學和生物學,共發表240多篇論文。著做14本。
然而。與咱們的主題最相關的,則要數維納於1948年提出來的新興學科「控制論」(Cybernetics)了。「Cybernetics」一詞源於希臘語的「掌舵人」。
在控制論中,維納深刻探討了機器與人的統一性——人或機器都是經過反饋完畢某種目的的實現。所以他揭示了用機器模擬人的可能性,這爲人工智能的提出奠基了重要基礎。維納也是最先注意到心理學、腦科學和project學應相互交叉的人之中的一個。這促使了後來認知科學的發展。
這幾位數學大師不知足於「躲進小樓成一統」,埋頭解決一兩個超級數學難題。他們的思想大膽地擁抱了斑駁複雜的世界。終於用他們的方程推進了社會的進步。開啓了人工智能之夢。
在數學大師們鋪平了理論道路,project師們踏平了技術坎坷。計算機已呱呱落地的時候,人工智能終於橫空出世了。
而這一歷史時刻的到來倒是從一個不起眼的會議開始的。
1956年8月,在美國漢諾斯小鎮寧靜的達特茅斯學院中,約翰•麥卡錫(John McCarthy)、馬文•閔斯基(Marvin Minsky,人工智能與認知學專家)、克勞德•香農(Claude Shannon。信息論的創始人)、艾倫•紐厄爾(Allen Newell,計算機科學家)、赫伯特•西蒙(Herbert Simon,諾貝爾經濟學獎得主)等科學家正聚在一塊兒,討論着一個全然不吃煙火食的主題:用機器來模仿人類學習以及其它方面的智能。
會議足足開了兩個月的時間。儘管你們沒有達成廣泛的共識,但是卻爲會議討論的內容起了一個名字:人工智能。所以,1956年也就成爲了人工智能元年。
達特茅斯會議以後,人工智能得到了井噴式的發展。好消息接踵而至。機器定理證實——用計算機程序取代人類進行本身主動推理來證實數學定理——是最早取得重大突破的領域之中的一個。
在達特茅斯會議上。紐厄爾和西蒙展現了他們的程序:「邏輯理論家」可以獨立證實出《數學原理》第二章的38條定理。而到了1963年,該程序已能證實該章的所有52條定理。1958年。美籍華人王浩在IBM704計算機上以3~5分鐘的時間證實了《數學原理》中有關命題演算部分的所有220條定理。
而就在這一年。IBM公司還研製出了平面幾何的定理證實程序。
1976年,凱尼斯•阿佩爾(Kenneth Appel)和沃夫岡•哈肯(Wolfgang Haken)等人利用人工和計算機混合的方式證實了一個著名的數學猜測:四色猜測(現在稱爲四色定理)。這個猜測表述起來很是easy易懂:對於隨意的地圖,咱們最少僅用四種顏色就可以染色該地圖,並使得隨意兩個相鄰的國家不會重色。然而證實起來卻異常煩瑣。配合着計算機超強的窮舉和計算能力,阿佩爾等人把這個猜測證實了。
還有一方面。機器學習領域也得到了實質的突破,在1956年的達特茅斯會議上,阿瑟•薩繆爾(Arthur Samuel)研製了一個跳棋程序。該程序具備自學習功能,可以從比賽中不斷總結經驗提升棋藝。1959年,該跳棋程序戰勝了它的設計者薩繆爾本人,過了3年後,該程序已經可以擊敗美國一個州的跳棋冠軍。
1956年。奧利弗•薩爾夫瑞德(Oliver Selfridge)研製出第一個字符識別程序。開闢了模式識別這一新的領域。
1957年,紐厄爾和西蒙等開始研究一種不依賴於詳細領域的通用問題求解器,他們稱之爲GPS(General Problem Solver)。1963年,詹姆斯•斯拉格(James Slagle)發表了一個符號積分程序SAINT,輸入一個函數的表達式,該程序就能本身主動輸出這個函數的積分表達式。過了4年後,他們研製出了符號積分運算的升級版SIN,SIN的運算已經可以達到專家級水準。
所有這一切來得太快了。勝利衝昏了人工智能科學家們的頭腦,他們開始盲目樂觀起來。好比,1958年,紐厄爾和西蒙就自信滿滿地說,不出10年,計算機將會成爲世界象棋冠軍,證實重要的數學定理,譜出優美的音樂。照這樣的速度發展下去,2000年人工智能就真的可以超過人類了。
然而,歷史彷佛有益要做弄輕狂無知的人工智能科學家們。
1965年,機器定理證實領域遇到了瓶頸。計算機推了數十萬步也沒法證實兩個連續函數之和還是連續函數。薩繆爾的跳棋程序也沒那麼神氣了,它停留在了州冠軍的層次,沒法進一步打敗世界冠軍。
最糟糕的事情發生在機器翻譯領域。對於人類天然語言的理解是人工智能中的硬骨頭。
計算機在天然語言理解與翻譯過程當中表現得極其差勁。一個最典型的樣例就是如下這個著名的英語句子:
The spirit is willing but the flesh is weak. (愛莫能助。)
當時,人們讓機器翻譯程序把這句話翻譯成俄語。而後再翻譯回英語以檢驗效果,獲得的句子竟然是:
The wine is good but the meet is spoiled.(酒是好的。肉變質了。)
這簡直是驢脣不正確馬嘴嘛。
怪不得有人挖苦道,美國政府花了2000萬美圓爲機器翻譯挖掘了一座墳墓。有關天然語言理解的不少其它內容。請參見本書第10章。
總而言之,愈來愈多的不利證據迫使政府和大學削減了人工智能的項目經費,這使得人工智能進入了寒冷的冬天。來自各方的事實證實。人工智能的發展不可能像人們早期設想的那樣一路順風。人們必須靜下心來冷靜思考。
經歷了短暫的挫折以後,AI研究者們開始痛定思痛。
愛德華•費根鮑姆(Edward A. Feigenbaum)就是新生力量的佼佼者,他舉着「知識就是力量」的大旗,很是快開闢了新的道路。
費根鮑姆分析到,傳統的人工智能之因此會陷入僵局,就是因爲他們過於強調通用求解方法的做用,而忽略了詳細的知識。
細緻思考咱們人類的求解過程就會發現,知識無時無刻不在起着重要做用。所以。人工智能必須引入知識。
因而,在費根鮑姆的帶領下。一個新的領域專家系統誕生了。所謂的專家系統就是利用計算機化的知識進行本身主動推理。從而模仿領域專家解決這個問題。第一個成功的專家系統DENDRAL於1968年問世,它可以依據質譜儀的數據推知物質的分子結構。在這個系統的影響下,各式各樣的專家系統很是快陸續涌現,造成了一種軟件產業的全新分支:知識產業。1977年,在第五屆國際人工智能大會上,費根鮑姆用知識project歸納了這個全新的領域。
在知識project的刺激下,日本的第五代計算機計劃、英國的阿爾維計劃、西歐的尤里卡計劃、美國的星計劃和中國的863計劃陸續推出,儘管這些大的科研計劃並不都是針對人工智能的,但是AI都做爲這些計劃的重要組成部分。
然而。好景不長。在專家系統、知識project得到大量的實踐經驗以後,弊端開始逐漸顯現了出來。這就是知識獲取。
面對這個全新的棘手問題。新的「費根鮑姆」沒有再次出現。人工智能這個學科卻發生了重大轉變:它逐漸分化成了幾大不一樣的學派。
專家系統、知識project的運做需要從外界得到大量知識的輸入,而這樣的輸入工做是極其費時費力的,這就是知識獲取的瓶頸。因而,在20世紀80年代,機器學習這個本來處於人工智能邊緣地區的分支一會兒成爲了人們關注的焦點。
儘管傳統的人工智能研究者也在奮力掙扎,但是人們很是快發現,假設採用全然不一樣的世界觀。即讓知識經過自下而上的方式涌現。而不是讓專家們自上而下地設計出來。那麼機器學習的問題其實可以獲得很是好地解決。
這就比如咱們教育小孩子,傳統人工智能好像填鴨式教學。而新的方法則是啓示式教學:讓孩子本身來學。
其實,在人工智能界。很是早就有人提出過自下而上的涌現智能的方案,僅僅只是它們歷來沒有引發你們的注意。一批人以爲可以經過模擬大腦的結構(神經網絡)來實現,而還有一批人則以爲可以從那些簡單生物體與環境互動的模式中尋找答案。他們分別被稱爲鏈接學派和行爲學派。與此相對,傳統的人工智能則被統稱爲符號學派。自20世紀80年代開始,到20世紀90年代。這三大學派造成了三足鼎立的局面。
做爲符號學派的表明,人工智能的創始人之中的一個約翰•麥卡錫在本身的站點上掛了一篇文章《什麼是人工智能》,爲你們闡明什麼是人工智能(依照符號學派的理解)。
(人工智能)是關於怎樣製造智能機器,特別是智能的計算機程序的科學和project。
它與使用機器來理解人類智能密切相關,但人工智能的研究並不需要侷限於生物學上可觀察到的那些方法。
在這裏,麥卡錫特地強調人工智能研究並不必定侷限於模擬真實的生物智能行爲,而是更強調它的智能行爲和表現的方面。這一點和圖靈測試的想法是一脈相承的。另外。麥卡錫還突出了利用計算機程序來模擬智能的方法。他以爲,智能是一種特殊的軟件,與實現它的硬件並無太大的關係。
紐厄爾和西蒙則把這樣的觀點歸納爲「物理符號系統假說」(physical symbolic system hypothesis)。該假說以爲,不論什麼可以將物理的某些模式(pattern)或符號進行操做並轉化成另一些模式或符號的系統。就有可能產生智能的行爲。
這樣的物理符號可以是經過高低電位的組成或者是燈泡的亮滅所造成的霓虹燈圖案。固然也可以是人腦神經網絡上的電脈衝信號。
這也偏偏是「符號學派」得名的依據。
在「物理符號系統假說」的支持下,符號學派把焦點集中在人類智能的高級行爲,如推理、規劃、知識表示等方面。這些工做在一些領域得到了空前的成功。
計算機博弈(下棋)方面的成功就是符號學派名揚天下的資本。
早在1958年,人工智能的創始人之中的一個西蒙就曾預言。計算機會在10年內成爲國際象棋世界冠軍。
然而,正如咱們前面討論過的。這樣的預測過於樂觀了。
事實比西蒙的預言足足晚了40年的時間。
1988年,IBM開始研發可以與人下國際象棋的智能程序「深思」——一個可以以每秒70萬步棋的速度進行思考的超級程序。
到了1991年,「深思II」已經可以戰平澳大利亞國際象棋冠軍達瑞爾•約翰森(Darryl Johansen)。1996年。「深思」的升級版「深藍」開始挑戰著名的人類國際象棋世界冠軍加里•卡斯帕羅夫(Garry Kasparov)。卻以2:4敗下陣來。但是。一年後的5月11日,「深藍」終於以3.5:2.5的成績打敗了卡斯帕羅夫(見圖1-5),成爲了人工智能的一個里程碑。
圖片來源:http://cdn.theatlantic.com/static/mt/assets/science/kasparov615.jpg。
人機大戰終於以計算機的勝利劃上了句號。
那是否是說計算機已經超越了人類了呢?要知道,計算機經過超級強大的搜索能力險勝了人類——當時的「深藍」已經可以在1秒鐘內算兩億步棋。
而且。「深藍」存儲了100年來差點兒所有的國際特級大師的開局和殘局下法。另外還有四位國際象棋特級大師親自「訓練」「深藍」,真可謂是超豪華陣容。因此,終於的結果很是難說是計算機打敗了人,更像是一批人打敗了還有一批人。
最重要的是,國際象棋上的博弈是在一個封閉的棋盤世界中進行的,而人類智能面對的則是一個複雜得多的開放世界。
然而,時隔14年後,另一場在IBM超級計算機和人類之間的人機大戰刷新了記錄,也使得咱們必須又一次思考機器可否打敗人類這個問題。因爲此次的比賽再也不是下棋,而是自由的「知識問答」,這樣的競賽環境比國際象棋開放得多。因爲提問的知識可以涵蓋時事、歷史、文學、藝術、流行文化、科學、體育、地理、文字遊戲等多個方面。
所以,此次的機器勝利至少證實了計算機相同可以在開放的世界中表現得不遜於人類。
這場人機大戰的遊戲叫做《危急》(Jeopardy)。是美國一款著名的電視節目。在節目中。主持人經過天然語言給出一系列線索,而後。參賽隊員要依據這些線索用最短的時間把主持人描寫敘述的人或者事物猜出來,而且以提問的方式回答。好比當節目主持人給出線索「這是一種冷血的無足的冬眠動物」的時候。選手應該回答「什麼是蛇?」而不是簡單地回答「蛇」。因爲問題會涉及各個領域,因此通常知識淵博的人類選手都很是難獲勝。
然而。在2011年2月14日到2月16日期間的《危急》比賽中。IBM公司的超級計算機沃森(Watson)卻打敗了人類選手(見圖1-6)。
圖片來源:http://cdn.geekwire.com/wp-content/uploads/IBM-Watson.jpg。
這一次,IBM打造的沃森是一款全然不一樣於以往的機器。
首先。它必須是一個天然語言處理的高手。因爲它必須在短期內理解主持人的提問。甚至有的時候還必須理解語言中的隱含意思。
而正如咱們前文所說,天然語言理解始終是人工智能的最大難題。其次。沃森必須充分了解字謎。要領會雙關語,而且腦中還要裝滿諸如莎士比亞戲劇的獨白、全球基本的河流和各國首都等知識。所有這些知識並不限定在某個詳細的領域。因此,沃森的勝利的確是人工智能界的一個標誌性事件。
可以說,人機大戰是人工智能符號學派1980年以來最出風頭的應用。
然而。這樣的無休止的人機大戰也難逃成爲噱頭的嫌疑。
其實。歷史上每次吸引眼球的人機大戰彷佛都一定伴隨着IBM公司的股票大漲,這也就不難理解爲何IBM會花重金開發出一款又一款大型計算機去參加這麼多無聊的競賽,而不是去作一些更有用的東西了。
實際上,20世紀80年代之後,符號學派的發展勢頭已經遠不如當年了。因爲人工智能武林霸主的地位很是快就屬於其它學派了。
咱們知道,人類的智慧主要來源於大腦的活動,而大腦則是由一萬億個神經元細胞經過錯綜複雜的相互鏈接造成的。因而。人們很是天然地想到,咱們可否夠經過模擬大量神經元的集體活動來模擬大腦的智力呢?
對照物理符號系統假說,咱們不難發現,假設將智力活動比喻成一款軟件,那麼支撐這些活動的大腦神經網絡就是對應的硬件。因而,主張神經網絡研究的科學家實際上在強調硬件的做用。以爲高級的智能行爲是從大量神經網絡的鏈接中自發出現的,所以,他們又被稱爲鏈接學派。
鏈接學派的發展也是一波三折。
其實,最先的神經網絡研究可以追溯到1943年計算機發明以前。
當時,沃倫•麥卡洛克(Warren McCulloch)和沃爾特•匹茲 (Walter Pitts)二人提出了一個單個神經元的計算模型。如圖1-7所看到的。
在這個模型中,左邊的I1, I2, … ,IN爲輸入單元,可以從其它神經元接受輸出。而後將這些信號通過加權(W1, W2, … ,WN)傳遞給當前的神經元並完畢彙總。假設彙總的輸入信息強度超過了必定的閾值(T)。則該神經元就會發放一個信號y給其它神經元或者直接輸出到外界。
該模型後來被稱爲麥卡洛克匹茲模型。可以說它是第一個真實神經元細胞的模型。
1957年,弗蘭克•羅森布拉特(Frank Rosenblatt)對麥卡洛克匹茲模型進行了擴充。即在麥卡洛克匹茲神經元上添加了學習算法。擴充的模型有一個響亮的名字:感知機。感知機可以依據模型的輸出y與咱們但願模型的輸出y*之間的偏差,調整權重W1, W2, …, WN來完畢學習。
咱們可以形象地把感知機模型理解爲一個裝滿了大大小小水龍頭(W1, W2, …, WN)的水管網絡,學習算法可以調節這些水龍頭來控制終於輸出的水流。並讓它達到咱們想要的流量。這就是學習的過程。這樣,感知機就好像一個可以學習的小孩,無論什麼問題。僅僅要明白了咱們想要的輸入和輸出之間的關係,均可能經過學習得以解決,至少它的擁護者是這樣以爲的。
然而,好景不長,1969年,人工智能界的權威人士馬文•閔斯基給鏈接學派帶來了致命一擊。他經過理論分析指出,感知機並不像它的創立者羅森布拉特宣稱的那樣可以學習不論什麼問題。連一個最簡單的問題:推斷一個兩位的二進制數是否僅包含0或者1(即所謂的XOR問題)都沒法完畢。
這一打擊是致命的,原本就不是很是熱的神經網絡研究差點就被閔斯基這一棒子打死了。
1974年,人工智能鏈接學派的救世主傑夫•辛頓(Geoffrey Hinton)終於出現了。
他曾至少兩次挽回鏈接學派的敗局。1974年是第一次,第二次會在下文提到。
辛頓的出發點很是easy——「多則不一樣」:僅僅要把多個感知機鏈接成一個分層的網絡,那麼。它就可以圓滿地解決閔斯基的問題。如圖1-8所看到的,多個感知機鏈接成爲一個四層的網絡。最左面爲輸入層,最右面爲輸出層,中間的那些神經元位於隱含層,右側的神經元接受左側神經元的輸出。
但接下來的問題是,「人多吃得多」,那麼多個神經元。可能有幾百甚至上千個參數需要調節,咱們怎樣對這樣複雜的網絡進行訓練呢?辛頓等人發現,採用幾年前阿瑟•布賴森(Arthur Bryson)等人提出來的反向傳播算法(Back propagation algorithm,簡稱BP算法)就可以有效解決多層網絡的訓練問題。
仍是以水流管道爲例來講明。
當網絡執行決策的時候,水從左側的輸入節點往右流。直到輸出節點將水吐出。而在訓練階段,咱們則需要從右往左來一層層地調節各個水龍頭。要使水流量達到要求。咱們僅僅要讓每一層的調節僅僅對它右面一層的節點負責就可以了,這就是反向傳播算法。事實證實,多層神經網絡裝備上反向傳播算法以後,可以解決很是多複雜的識別和預測等問題。
差點兒是在同一時間,又有幾個不一樣的神經網絡模型前後被提出,這些模型有的可以完畢模式聚類,有的可以模擬聯想思惟。有的具備深厚的數學物理基礎。有的則模仿生物的構造。所有這些大的突破都令鏈接學派名聲大噪,異軍突起。
然而,鏈接學派的科學家們很是快又陷入了困境。
儘管各類神經網絡可以解決這個問題,但是,它們到底爲何會成功以及爲何在有些問題上會屢遭失敗。卻沒有人能說得清楚。對網絡執行原理的無知,也使得人們對怎樣提升神經網絡執行效率的問題無從下手。所以。鏈接學派需要理論的支持。
2000年左右,弗拉基米爾•萬普尼克(Vladimir Naumovich Vapnik)和亞歷克塞•澤範蘭傑斯(Alexey Yakovlevich Chervonenkis)這兩位俄羅斯科學家提出了一整套新的理論:統計學習理論,受到鏈接學派的頂禮膜拜。
該理論大意可歸納爲「殺雞焉用宰牛刀」。咱們的模型必定要與待解決的問題相匹配,假設模型過於簡單,而問題自己的複雜度很是高。就沒法獲得預期的精度。反過來,若問題自己簡單,而模型過於複雜,那麼模型就會比較僵死,沒法觸類旁通,即出現所謂的「過擬合」(overfitting)現象。
實際上。統計學習理論的精神與奧卡姆剃刀原理有着深入的聯繫。威廉•奧卡姆(William Occum,1287—1347)是中世紀時期的著名哲學家,他留下的最重要的遺產就是奧卡姆剃刀原理。該原理說,假設對於同一個問題有不一樣的解決方式,那麼咱們應該挑選當中最簡單的一個。神經網絡或者其它機器學習模型也應該遵循類似的原理,僅僅有當模型的複雜度與所解決的問題相匹配的時候。才幹讓模型更好地發揮做用。
然而,統計學習理論也有很是大的侷限性。因爲理論的嚴格分析僅僅限於一類特殊的神經網絡模型:支持向量機(Supporting Vector Machine)。而對於更通常的神經網絡。人們還未找到統一的分析方法。因此說,鏈接學派的科學家們儘管會向大腦學習怎樣構造神經網絡模型。但實際上他們本身也不清楚這些神經網絡究竟是怎樣工做的。只是,他們這樣的尷尬局面也是無獨有偶,另一派後起之秀儘管來勢洶洶,卻也沒有解決理論基礎問題,這就是行爲學派。
行爲學派的出發點與符號學派和鏈接學派全然不一樣,他們並無把目光聚焦在具備高級智能的人類身上,而是關注比人類低級得多的昆蟲。即便這樣簡單的動物也體現出了非凡的智能,昆蟲可以靈活地擺動本身的身體行走。還可以高速地反應。躲避捕食者的攻擊。而還有一方面,儘管螞蟻個體很是easy,但是。當很是多小螞蟻彙集在一塊兒造成龐大的蟻羣的時候,卻能表現出非凡的智能。還能造成嚴密的社會分工組織。
正是受到了天然界中這些相對低等生物的啓示,行爲學派的科學家們決定從簡單的昆蟲入手來理解智能的產生。的確,他們取得了不錯的成果。
羅德尼•布魯克斯(Rodney Brooks)是一名來自美國麻省理工學院的機器人專家。在他的實驗室中有大量的機器昆蟲(如圖1-9所看到的)。相對於那些笨拙的機器人鐵傢伙來講,這些小昆蟲要靈活得多。
這些機器昆蟲沒有複雜的大腦。也不會依照傳統的方式進行復雜的知識表示和推理。
它們甚至不需要大腦的干預,僅憑四肢和關節的協調,就能很是好地適應環境。
當咱們把這些機器昆蟲放到複雜的地形中的時候。它們可以痛快地爬行,還能聰明地避開障礙物。
它們看起來的智能其實並不來源於自上而下的複雜設計。而是來源於自下而上的與環境的互動。
這就是布魯克斯所倡導的理念。
假設說符號學派模擬智能軟件,鏈接學派模擬大腦硬件,那麼行爲學派就算是模擬身體了。而且是簡單的、看起來沒有什麼智能的身體。
好比,行爲學派的一個很是成功的應用就是美國波士頓動力公司(Boston Dynamics)研製開發的機器人「大狗② 。如圖1-10所看到的,「大狗」是一個四足機器人。它可以在各類複雜的地形中行走、攀爬、奔跑,甚至還可以揹負重物。
「大狗」模擬了四足動物的行走行爲。可以自適應地依據不一樣的地形調整行走的模式。推薦感興趣的讀者掃描下方二維碼觀看視頻介紹。
圖片來源:http://grant.solarbotics.net/walkman.htm。 BigDog。參見http://www.bostondynamics.com/robot_bigdog.html。
當這僅僅大狗伴隨着「沙沙」的機器運做聲朝你走來時,你必定會被它的氣勢所嚇到。因爲它的樣子很是像是一頭公牛呢。
咱們從生物身上學到的東西還不只僅是這些。從更長的時間尺度看,生物體對環境的適應還會迫使生物進化。從而實現從簡單到複雜、從低等到高等的躍遷。
約翰•霍蘭(John Holland)是美國密西根大學的心理學、電器project以及計算機的三科教授。他本科畢業於麻省理工學院,後來到了密西根大學師從阿瑟•伯克斯(Arthur Burks。曾是馮•諾依曼的助手)攻讀博士學位。
1959年。他拿到了全世界首個計算機科學的博士頭銜。別看霍蘭個頭不高,他的骨子裏卻有一種離經叛道的氣魄。他在讀博期間就對怎樣用計算機模擬生物進化異常着迷,並終於發表了他的遺傳算法。
遺傳算法對大天然中的生物進化進行了大膽的抽象,終於提取出兩個主要環節:變異(包含基因重組和突變)和選擇。
在計算機中。咱們可以用一堆二進制串來模擬天然界中的生物體。而大天然的選擇做用——生存競爭、優勝劣汰——則被抽象爲一個簡單的適應度函數。這樣,一個超級濃縮版的大天然進化過程就可以搬到計算機中了,這就是遺傳算法。
圖片來源:http://www.militaryfactory.com/armor/detail.asp?armor_id=184。
遺傳算法在剛發表的時候並無引發多少人的重視。然而,隨着時間的推移。當人工智能的焦點轉向機器學習時,遺傳算法就一會兒家喻戶曉了。因爲它的確是一個很是easy而有效的機器學習算法。與神經網絡不一樣,遺傳算法不需要把學習區分紅訓練和執行兩個階段,它全然可以指導機器在執行中學習,即所謂的作中學(learning by doing)。同一時候,遺傳算法比神經網絡具備更方便的表達性和簡單性。
無獨有偶。美國的勞倫斯•福格爾(Lawrence Fogel)、德國的因戈•雷伯格(Ingo Rechenberg)以及漢斯•保羅•施韋費爾(Hans-Paul Schwefel)、霍蘭的學生約翰•科扎 (John Koza)等人也前後提出了演化策略、演化編程和遺傳編程。
這使得進化計算你們庭的成員更加多樣化了。
無論是機器昆蟲仍是進化計算。科學家們關注的焦點都是怎樣模仿生物來創造智能的機器或者算法。克里斯托弗•蘭頓(Chirstopher Langton)進行了進一步提煉。提出了「人工生命」這一新興學科。人工生命與人工智能很是接近。但是它的關注點在於怎樣用計算的手段來模擬生命這樣的更加「低等」的現象。
人工生命以爲。所謂的生命或者智能其實是從底層單元(可以是大分子化合物。也可以是數字代碼)經過相互做用而產生的涌現屬性(emergent property)。
「涌現」(emergence)這個詞是人工生命研究中使用頻率最高的詞之中的一個,它強調了一種僅僅有在宏觀具有但不能分解還原到微觀層次的屬性、特徵或行爲。單個的蛋白質分子不具有生命特徵,但是大量的蛋白質分子組合在一塊兒造成細胞的時候,整個系統就具有了「活」性,這就是典型的涌現。相同地,智能則是比生命更高一級(假如咱們可以將智能和生命分紅不一樣等級的話)的涌現——在生命系統中又涌現出了一整套神經網絡系統,從而使得整個生命體具有了智能屬性。
現實世界中的生命是由碳水化合物編織成的一個複雜網絡,而人工生命則是寄生於01世界中的複雜有機體。
人工生命的研究思路是經過模擬的形式在計算機數碼世界中產生類似現實世界的涌現。所以,從本質上講,人工生命模擬的就是涌現過程。而不太關心實現這個過程的詳細單元。
咱們用01數字表明蛋白質分子。併爲其設置詳細的規則,接下來的事情就是執行這個程序。而後盯着屏幕。喝上一杯咖啡,等待着使人驚訝的「生命現象」在電腦中出現。
模擬羣體行爲是人工生命的典型應用之中的一個。1983年。計算機圖形學家克雷格•雷諾茲(Craig Reynolds)曾開發了一個名爲Boid的計算機模擬程序(見圖1-11),它可以逼真地模擬鳥羣的運動,還可以聰明地躲避障礙物。後來。肯尼迪(Kennedy)等人於1995年擴展了Boid模型。提出了PSO(粒子羣優化)算法。成功地經過模擬鳥羣的運動來解決函數優化等問題。
類似地,利用模擬羣體行爲來實現智能設計的樣例還有很是多,好比蟻羣算法、免疫算法等,共同特徵都是讓智能從規則中自下而上地涌現出來,並能解決實際問題。關於人工生命的詳細討論,可以參考本書11~13章。
然而,行爲學派帶來的問題彷佛比提供的解決方法還多。到底在什麼狀況下可以發生涌現?怎樣設計底層規則使得系統可以以咱們但願的方式涌現?行爲學派、人工生命的研究者們沒法回答。更糟糕的是。幾十年過去了,人工生命研究彷佛仍然僅僅擅長於模擬小蟲子、螞蟻之類的低等生物,高級的智能全然沒有像他們預期的那樣天然涌現,而且沒有絲毫跡象。
圖片來源:http://www.red3d.com/cwr/boids/。
正如咱們前面提到的。這三個學派大體是從軟件、硬件和身體這三個角度來模擬和理解智能的。
但是。這僅僅是一個粗糙的比喻。其實。三大學派之間還存在着很是多微妙的差別和聯繫。
首先。符號學派的思想和觀點直接繼承自圖靈,他們是直接從功能的角度來理解智能的。
他們把智能理解爲一個黑箱,僅僅關心這個黑箱的輸入和輸出。而不關心黑箱的內部構造。
所以,符號學派利用知識表示和搜索來替代真實人腦的神經網絡結構。符號學派假設知識是先驗地存儲於黑箱之中的,所以,它很是擅長解決利用現有的知識作比較複雜的推理、規劃、邏輯運算和推斷等問題。
鏈接學派則顯然要把智能系統的黑箱打開。從結構的角度來模擬智能系統的運做,而不僅僅重現功能。
這樣。鏈接學派看待智能會比符號學派更加底層。
這樣作的優勢是可以很是好地解決機器學習的問題,並本身主動獲取知識;但是弱點是對於知識的表述是隱含而晦澀的。因爲所有學習到的知識都變成了鏈接權重的數值。咱們若要讀出神經網絡中存儲的知識,就必需要讓這個網絡運做起來,而沒法直接從模型中讀出。
鏈接學派擅長解決模式識別、聚類、聯想等非結構化的問題,但卻很是難解決高層次的智能問題(如機器定理證實)。
行爲學派則研究更低級的智能行爲,它更擅長模擬身體的運做機制。而不是腦。
同一時候,行爲學派很是強調進化的做用,他們以爲,人類的智慧也理應是從漫長的進化過程當中逐漸演變而來的。行爲學派擅長解決適應性、學習、高速行爲反應等問題。也可以解決必定的識別、聚類、聯想等問題。但在高級智能行爲(如問題求解、邏輯演算)上則相形見絀。
有意思的是,鏈接學派和行爲學派彷佛更加接近,因爲他們都相信智能是自下而上涌現出來的,而非自上而下的設計。但麻煩在於。怎麼涌現?涌現的機制是什麼?這些深層次問題沒法在兩大學派內部解決。而必須求助於複雜系統科學。
三大學派分別從高、中、低三個層次來模擬智能,但現實中的智能系統顯然是一個完整的整體。
咱們應怎樣調解、綜合這三大學派的觀點呢?這是一個未解決的開放問題,而且彷佛很是難在短期內解決。基本的緣由在於,無論是在理論指導思想仍是計算機模型等方面,三大學派都存在着太大的差別。
因而,就這樣磕磕碰碰地,人工智能走入了新的世紀。到了2000年先後。人工智能的發展非但沒有解決這個問題,反而引入了一個又一個新的問題,這些問題彷佛變得愈來愈難以回答。而且所牽扯的理論也愈來愈深。
因而。很是多人工智能研究者乾脆當起了「鴕鳥」。對理論問題漠不關心,而是一心向「應用」看齊。爭什麼爭呀,實踐是檢驗真理的惟一標準。無論是符號、鏈接、行爲。可以解決實際問題的鳥就是好鳥。
在這樣一種大背景下。人工智能開始進一步分化。很是多本來隸屬於人工智能的領域逐漸獨立成爲面向詳細應用的新興學科。咱們簡單羅列例如如下:
本身主動定理證實
模式識別
機器學習
天然語言理解
計算機視覺
本身主動程序設計
每一個領域都包含大量詳細的技術和專業知識以及特殊的應用背景。不一樣分支之間也差點兒是老死不相往來,大一統的人工智能之夢彷彿破滅了。因而,計算機視覺專家甚至不肯意認可本身搞的叫人工智能,因爲他們以爲,人工智能已經成爲了一個僅僅表明傳統的符號學派觀點的專有名詞,大一統的人工智能概念沒有不論什麼意義。也沒有存在的必要。這就是人工智能進入2000年以後的情況。
但是,世界老是那麼奇異。少數派老是存在的。當人工智能正面臨着土崩瓦解的窘境時,仍然有少數科學家正在逆流而動,試圖又一次構建統一的模式。
麻省理工學院的喬希•特南鮑姆(Josh Tenenbaum)以及斯坦福大學的達芙妮•科勒(Daphne Koller)就是這樣的少數派。他們的特立獨行起源於對機率這個有着幾百年歷史的數學概念的又一次認識。並利用這樣的認識來統一人工智能的各個方面。包含學習、知識表示、推理以及決策。
這樣的認識其實可以追溯到一位18世紀的古人,這就是著名的牧師、業餘數學家:托馬斯•貝葉斯(Thomas Bayes)。與傳統的方法不一樣,貝葉斯將事件的機率視爲一種主觀的信念,而不是傳統意義上的事件發生的頻率。所以,機率是一種主觀的測度。而非客觀的度量。
故而,人們也將貝葉斯對機率的見解稱爲主觀機率學派——這一觀點更加明白地凸顯出貝葉斯機率與傳統機率統計的差異。
貝葉斯學派的核心就是著名的貝葉斯公式。它表達了智能主體怎樣依據蒐集到的信息改變對外在事物的見解。所以。貝葉斯公式歸納了人們的學習過程。
以貝葉斯公式爲基礎。人們發展出了一整套稱爲貝葉斯網絡(演示樣例見圖1-12)的方法。
在這個網絡上,研究者可以展開對學習、知識表示和推理的各類人工智能的研究。
隨着大數據時代的來臨,貝葉斯方法所需要的數據也是唾手可得,這使得貝葉斯網絡成爲了人們關注的焦點。
圖片來源:Wikipedia。
另一個嘗試統一人工智能的學者是澳大利亞國立大學的馬庫斯•胡特(Marcus Hutter)。他在2000年的時候就開始嘗試創建一個新的學科。併爲這個新學科取了一個響噹噹的名字:通用人工智能(Universal Artificial Intelligence)。
胡特以爲。現在主流的人工智能研究已經嚴重偏離人工智能這個名稱的本意。
咱們不該該將智能化分紅學習、認知、決策、推理等分立的不一樣側面。
其實,對於人類來講,所有這些功能都是智能做爲一個整體的不一樣表現。所以,在人工智能中,咱們應該始終保持清醒的頭腦,將智能看做一個整體。而不是若干分離的子系統。
假設非要堅持統一性和普遍性。那麼咱們就不得不放棄理論上的有用性,這偏偏正是胡特的策略。
與一般的人工智能研究很是不一樣,胡特採用的是規範研究方法,即給出所謂的智能程序一個數學上的定義。而後運用嚴格的數理邏輯討論它的性質。但是,理論上已證實。胡特定義的智能程序是數學上可構造的,但倒是計算機不可計算的——不論什麼計算機都沒法模擬這樣的智能程序——僅僅有上帝能計算出來。
不可計算的智能程序有什麼用?相信讀者會有這樣的疑問。
實際上,假設在20世紀30年代,咱們也會對圖靈的研究發出相同的疑問。
因爲那個時候計算機尚未發明呢,那麼圖靈機模型有什麼用呢?這也彷彿是傳說中英國女王對法拉第的詰難:「你研究的這些電磁理論有什麼用呢?」法拉第則反問道:「那麼。我尊敬的女王陛下,您以爲,您懷中抱着的嬰兒有什麼用呢?」
胡特的理論儘管還不能與圖靈的研究相比,但是,它至少爲統一人工智能開闢了新方向,讓咱們看到了統一的曙光。
咱們僅僅有等待歷史來揭曉終於的答案。不少其它關於通用人工智能的內容,請參見本書第5章。
就這樣,在爭論聲中。人工智能走進了21世紀的第二個十年,彷佛一切都沒有改變。但是。幾件事情悄悄地發生了,它們又一次燃起了人們對於人工智能之夢的渴望。
21世紀的第二個十年,假設要評選出最惹人注目的人工智能研究,那麼必定要數深度學習(Deep Learning)了。
2011年,谷歌X實驗室的研究人員從YouTube視頻中抽取出1000萬張靜態圖片,把它餵給「谷歌大腦」——一個採用了所謂深度學習技術的大型神經網絡模型,在這些圖片中尋找反覆出現的模式。三天後。這臺超級「大腦」在沒有人類的幫助下,竟然本身從這些圖片中發現了「貓」。
2012年11月,微軟在中國的一次活動中,展現了他們新研製的一個全本身主動的同聲翻譯系統——採用了深度學習技術的計算系統。
演講者用英文演講,這臺機器能實時地完畢語音識別、機器翻譯和中文的語音合成。也就是利用深度學習完畢了同聲傳譯。
2013年1月,百度公司成立了百度研究院。當中,深度學習研究所是該研究院旗下的第一個研究所。
……
這些全球頂尖的計算機、互聯網公司都不約而同地對深度學習表現出了極大的興趣。那麼到底什麼是深度學習呢?
其實,深度學習仍然是一種神經網絡模型,僅僅只是這樣的神經網絡具有了不少其它層次的隱含層節點,同一時候配備了更先進的學習技術。如圖1-13所看到的。
然而。當咱們將超大規模的訓練數據餵給深度學習模型的時候。這些具有深層次結構的神經網絡彷彿搖身一變,成爲了擁有感知和學習能力的大腦。表現出了遠遠好於傳統神經網絡的學習和泛化的能力。
當咱們追溯歷史。深度學習神經網絡其實早在20世紀80年代就出現了。
然而。當時的深度網絡並無表現出不論什麼超凡能力。
這是因爲。當時的數據資源遠沒有現在豐富。而深度學習網絡偏偏需要大量的數據以提升它的訓練實例數量。
到了2000年,當大多數科學家已經對深度學習失去興趣的時候,又是那個傑夫•辛頓帶領他的學生繼續在這個冷門的領域裏堅持耕耘。起初他們的研究並不順利。但他們堅信他們的算法必將給世界帶來驚奇。
驚奇終於出現了,到了2009年,辛頓小組得到了意外的成功。
他們的深度學習神經網絡在語音識別應用中取得了重大的突破,轉換精度已經突破了世界紀錄,錯誤率比曾經下降了25%。可以說。辛頓小組的研究讓語音識別領域縮短了至少10年的時間。就這樣。他們的突破吸引了各大公司的注意。
蘋果公司甚至把他們的研究成果應用到了Siri語音識別系統上,使得iPhone 5全球熱賣。
今後,深度學習的流行便一發不可收拾。
那麼。爲何把網絡的深度提升。配合上大數據的訓練就能使得網絡性能有如此大的改善呢?答案是。因爲人腦偏偏就是這樣一種多層次的深度神經網絡。好比,已有的證據代表。人腦處理視覺信息就是通過多層加工完畢的。因此,深度學習實際上僅僅只是是對大腦的一種模擬。
模式識別問題長久以來是人工智能發展的一個主要瓶頸。
然而。深度學習技術彷佛已經突破了這個瓶頸。
有人甚至以爲。深度學習神經網絡已經可以達到2歲小孩的識別能力。
有理由相信。深度學習會將人工智能引入全新的發展局面。本書第6章將詳細介紹深度學習這一全新技術,第14章將介紹集智俱樂部下的一個研究小組對深度學習技術的應用——彩雲天氣,用人工智能提供精準的短期天氣預報。
咱們已經看到,深度學習模型成功的祕訣之中的一個就在於它模仿了人類大腦的深層體系結構。
那麼,咱們爲何不直接模擬人類的大腦呢?其實,科學家們已經行動起來了。
好比,德國海德爾堡大學的FACETS(Fast Analog Computing with Emergent Transient States)計劃就是一個利用硬件來模擬大腦部分功能的項目。
他們採用數以千計的芯片。創造出一個包含10億神經元和1013突觸的迴路的人工腦(其複雜程度至關於人類大腦的十分之中的一個)。與此對應。由瑞士洛桑理工學院和IBM公司聯合發起的藍色大腦計劃則是經過軟件來模擬人腦的實踐。他們採用逆向project方法,計劃2015年開發出一個虛擬的大腦。
然而,這類研究計劃也有很是大的侷限性。
當中最大的問題就在於:迄今爲止,咱們對大腦的結構以及動力學的認識還至關0基礎,尤爲是神經元活動與生物體行爲之間的關係還遠遠沒有創建。好比,儘管科學家早在30年前就已經弄清楚了秀麗隱杆線蟲(Caenorhabditis elegans)302個神經元之間的鏈接方式,但到現在仍然不清楚這樣的低等生物的生存行爲(好比進食和交配)是怎樣產生的。儘管科學家已經作過諸多嘗試,比方鏈接組學(Connectomics),也就是全面監測神經元之間的聯繫(即突觸)的學問,但是。正如線蟲研究同樣,這幅圖譜僅僅是個開始,它還不足以解釋不斷變化的電信號是怎樣產生特定認知過程的。
因而,爲了進一步深刻了解大腦的執行機制,一些「大科學」項目前後啓動。2013年,美國奧巴馬政府宣佈了「腦計劃」(Brain Research through Advancing Innovative Neurotechnologies,簡稱BRAIN)的啓動。該計劃在2014年的啓動資金爲1億多美圓,致力於開發能記錄大羣神經元甚至是整片腦區電活動的新技術。
無獨有偶。歐盟也發起了「人類大腦計劃」(The Human Brain Project),這一計劃爲期10年,將耗資16億美圓,致力於構建能真正模擬人腦的超級計算機。
除此以外。中國、日本、以色列也都有雄心勃勃的腦科學研究計劃出爐。這彷佛讓人們想到了第二次世界大戰後的情景,各國爭相發展「大科學項目」:核武器、太空探索、計算機等。腦科學的時代已經來臨。關於人腦與電腦的比較,請參見本書第7章。
2007年,一位谷歌的實習生路易斯•馮•安(Luis von Ahn)開發了一款有趣的程序「ReCapture」,卻無心間開創了一個新的人工智能研究方向:人類計算。
ReCapture的初衷很是easy,它但願利用人類高超的模式識別能力,本身主動幫助谷歌公司完畢大量掃描圖書的文字識別任務。但是,假設要僱用人力來完畢這個任務則需要花費一大筆開銷。因而,馮•安想到,天天都有大量的用戶在輸入驗證碼來向機器證實本身是人而不是機器。而輸入驗證碼其實就是在完畢文本識別問題。因而,一方面是有大量的掃描的圖書中難以識別的文字需要人來識別;還有一方面是由計算機生成一些扭曲的圖片讓大量的用戶作識別以代表本身的身份。
那麼,爲何不把兩個方面結合在一塊兒呢?這就是ReCapture的創意(如圖1-14所看到的),馮•安聰明地讓用戶在輸入識別碼的時候悄悄幫助谷歌完畢了文字識別工做!
這一成功的應用其實是藉助人力完畢了傳統的人工智能問題。馮•安把它叫做人類計算(Human Computation),咱們則把它形象地稱爲「人工」人工智能。
除了ReCapture之外,馮•安還開發了很是多類似的程序或系統。好比ESP遊戲是讓用戶經過競爭的方式爲圖片貼標籤,從而完畢「人工」人工分類圖片;Duolingo系統則是讓用戶在學習外語的同一時候,順便翻譯一下互聯網。這是「人工」機器翻譯。
或許。這樣巧妙的人機結合纔是人工智能發展的新方向之中的一個。
因爲一個全然脫離人類的人工智能程序對於咱們沒有不論什麼獨立存在的意義,因此人工智能一定會面臨人機交互的問題。
而隨着互聯網的興起,人和計算機交互的方式會更加便捷而多樣化。所以,這爲傳統的人工智能問題提供了全新的解決途徑。
然而,讀者或許會質疑,這樣的摻合了人類智能的系統還能叫做純粹的人工智能嗎?這樣的質疑其實有一個隱含的前提,就是人工智能是一個獨立運做的系統,它與人類環境應相互隔離。但當咱們考慮人類智能的時候就會發現,不論什麼智能系統都不能與環境絕對隔離,它僅僅有在開放的環境下才幹表現出智能。相同的道理。人工智能也必須向人類開放,因而引入人的做用也變成了一種很是天然的事情。關於這個主題,咱們將在本書第8章和第9章中進一步討論。
本章介紹了人工智能近60年所走過的曲折道路。或許,讀者所期待的內容,諸如奇點臨近、超級智能機器人、人與機器的共生演化等激動人心的內容並無出現,但是,我能保證的,是一段真實的歷史。併力圖作到準確無誤。
儘管人工智能這條道路蜿蜒曲折,荊棘密佈,但至少它在發展並不斷壯大。最重要的是,人們對於人工智能的夢想永遠沒有破滅過。
或許人工智能之夢將沒法在你個人有生之年實現。或許人工智能之夢始終沒法逾越哥德爾定理那個碩大無朋的「如來佛手掌」,但是。人工智能之夢將永遠驅動着咱們不斷前行。挑戰極限。
關於希爾伯特、圖靈、哥德爾的故事和相關研究可以閱讀《哥德爾、艾舍爾、巴赫:集異璧之大成》一書。關於馮•諾依曼。可以閱讀他的傳記:《天才的拓荒者:馮•諾依曼傳》。關於維納,可以參考他的著做《控制論》。
若要全面瞭解人工智能,給你們推薦兩本書:Artificial Intelligence: A Modern Approach和Artificial Intelligence: Structures and Strategies for Complex Problem Solving。瞭解機器學習以及人工神經網絡可以參考Pattern Recognition和Neural Networks and Learning Machines。
關於行爲學派和人工生命。可以參考《數字創世紀:人工生命的新科學》以及人工生命的論文集。若要深刻了解貝葉斯網絡,可以參考Causality: Models, Reasoning, and Inference。深刻了解胡特的通用人工智能理論可以閱讀Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability。關於深度學習方面的知識可參考站點:http://deeplearning.net/reading-list/。當中有很多綜述性的文章。
人類計算方面可以參考馮•安的站點:http://www.cs.cmu.edu/~biglou/。
1 候世達,嚴勇。劉皓. 哥德爾、艾舍爾、巴赫:集異璧之大成. 莫大偉 譯. 北京:商務印書館。1997.
2 諾曼•麥克雷. 天才的拓荒者:馮•諾伊曼傳. 範秀華,朱朝輝 譯. 上海:上海科技教育出版社,2008.
3 維納. 控制論:或關於在動物和機器中控制和通訊的科學. 郝季仁 譯. 北京:北京大學出版社,2007.
4 Luger G F. Artificial intelligence: structures and strategies for complex problem solving (6th Edition). Addison-Wesley, 2008.
5 Russel S K, Norvig P. Artificial Intelligence: A Modern Approach (2nd Edition). Prentice Hall, 2002.
6 Theodoridis S, Koutroumbas K. Pattern Recognition (2nd edition). Academic Press, 2008.
7 Haykin S O. Neural Networks and Learning Machines (3rd Edition). Prentice Hall, 2000.
8 李建會,張江. 數字創世紀:人工生命的新科學. 北京:科學出版社,2006.
9 Pearl J. Causality: models, reasoning, and inference. Cambridge University Press, 2000.
10 Hutter M. Universal Artificial Intelligence:Sequential Decisions based on Algorithmic Probability. Springer, 2005.
本文摘自《科學的極致:漫談人工智能》