原文: https://www.economist.com/sites/default/files/ai_mailout.pdfhtml
翻譯: http://www.cnblogs.com/massquantity/p/8324015.htmlgit
這篇文章出自《經濟學人》20160625期 :算法
《經濟學人》的這篇原文就很長,因此我情非得已把這篇附文拆分了出來。如下內容中原文皆以【文章】指代。shell
這篇【文章】的主要內容,天然是人工智能。然而【文章】的標題倒是「機器問題歸來(The return of the machinery question)」,這無疑預示着一種歷史層面的解讀,【文章】中用19世紀工業革命時期人們對於新機器出現的種種態度來類比今天的人們對於人工智能的各類爭論,最後得出結論,人工智能整體上來看是對人類發展有利的,就像工業革命中的機器極大促進了經濟發展同樣。目前不少觀點認爲人工智能與電、蒸汽機同樣,是一種通用技術,甚至可能會引起第四次工業革命,因此這篇【文章】看起來也很是地應景。【文章】主要從科技、歷史、經濟、教育、社會、倫理等層面對人工智能這個新時代寵兒進行了綜述,不管是深度仍是廣度都是我在其餘文章中未見的(這裏的深度指縱向的歷史深度,而非技術深度),因此在此我也想就【文章】中提到的一些方面進行補充拓展,以期勾勒出更全面的時代樣貌。數據庫
咱們命該遇到這樣的時代。編程
—— 莎士比亞《辛白林》後端
【文章】第一部分提到了人工智能的創新式破壞所產生的巨大影響,使用的詞彙是「creative disruption」,這個詞自己有多種引伸義,可細分爲「creative destruction」,「disruptive innovation 「,「disruptive technology」,我想做者多是把這三層意思都包含在裏面了。api
這一套「創新式破壞」理論,都源自奧地利著名經濟學家約瑟夫·A·熊彼特在其表明做《資本主義、社會主義與民主(Capitalism, Socialism and Democracy)》中提出的術語 —— 「creative destruction」。熊彼得的主要思想之一是商業週期(business cycle)理論,他將「creative destruction」視做整個商業週期的一部分,是經濟陷入不景氣時擺脫困境的良藥。所以「creative destruction」主要着眼於宏觀經濟層面,能產生跨行業的巨大影響力。安全
「Disruptive innovation 「和「disruptive technology」均出自哈佛商學院教授Clayton Christensen的名做《The Innovator's Dilemma》。Christensen所說的創新主要指行業內的技術創新,新產品剛出現時由於性能不足,不受主流市場青睞,但隨着該技術的不斷改進,最終取代原有產品。這聽上去很簡單,但爲何不少大公司都敗在「disruptive technology」腳下?Christensen認爲根本緣由並不是是大公司的管理者目光短淺或者缺少創新能力,而是由一級級的客戶-供應商價值傳遞所致使。大公司出來的管理者從上商學院開始就接受的管理信條是:」以客戶爲中心「;」利潤最大化「;」將錢投資在可能的ROI最高的產品上「。這些管理準則大部分時候都沒有錯,然而在面對「disruptive technology」的時候卻瞬間成了錯誤的指導原則,由於含有「disruptive technology」的產品每每剛出現時其功能不足以和現有產品抗衡,於是下游的大型客戶都不須要,那麼公司的市場和產品管理者天然會調低該產品的預計收益。而因爲一個公司的整體資源是有限的,最高管理層在作決策時天然會選擇將更多資源投入預計收益高的產品,而忽略那些「disruptive technology」。Christensen認爲這是一個總體的」價值網絡(value network)「所致使的結果,「disruptive technology」創造了新的市場和價值網絡,最終破壞並取代原有的,穩固的市場和價值網絡,這個過程即爲「disruptive innovation 「。近年來最知名也最使人動容的案例就是諾基亞ceo的那句痛哭流涕的自白 ——we didn’t do anything wrong, but somehow, we lost ——以及影像巨頭柯達公司的隕落,不少企業在面對「disruptive innovation 「的時候恐怕都是這種感覺。網絡
【文章】的開頭提到:
從這部分描述看,若是成真的話,顯然是一種creative destruction。【文章】中僅引用了麥肯錫全球研究院(McKinsey Global Institute,MGI)報告中的一句話,而事實上,MGI分別在16年12月,17年1月、4月、6月發表過人工智能相關的報告,這也從側面體現了人工智能目前的熱度。
MGI在報告中提出了六種disruptive model,包括供應/需求的高效對接、產品定製化、數據驅動研發、決策優化等等,這些model都涉及了衆多行業。
從2016年來看,各科技公司在AI領域共花費了260-390億美圓,其中90%用於技術研發和部署,而剩下的10%則用於AI收購。下圖顯示2016年人工智能界獲投資最多的六大應用: 計算機視覺、天然語言處理、機器人技術、虛擬智能體、無人駕駛、機器學習。其中機器學習佔比最高,大概是由於在各個領域這都是一項通用技術。
另外一家知名諮詢公司埃森哲(Accenture)則發佈了關於中國的人工智能報告,指出中國政府近年來大力推進人工智能的發展,印發了一系列通知,包括《「互聯網+」人工智能三年行動實施方案》,《新一代人工智能發展規劃》等,很大一部分緣由在於人工智能對於經濟的助推做用。埃森哲評估人工智能的發展將對日趨緩慢的經濟增加有所補償,到2035年人工智能的發展可讓中國的GDP增加率提升1.6%。更爲重要的是,雖然中國的人口在不斷增加,但老齡化的問題卻開始顯現,帶來的問題是勞動人口的增加率正不斷降低,以下圖所示:
毫無疑問,開放二胎的緣由之一就是國家看到了人口老齡化這方面的隱患;而另外一方面,人工智能與以往的技術創新如電、鐵路、信息技術不一樣,不只能夠促進經濟增加,還能夠代替人進行工做,從而創造新的勞動力,這樣就能有效緩解人口老齡化的危機。這又從另外一個側面反映出人工智能對宏觀經濟的巨大影響。
衆所周知,人工智能在發展初期表現乏力,然而如今卻在多個行業表現出驚人的效果,並逐漸取代了原有的模式,這很像是「disruptive technology」的發展軌跡。對於具體行業的影響,這裏僅舉一例 —— 醫療行業。
比起其餘行業,醫療行業對AI每每持較謹慎態度,如文中所述,緣由主要有政府監管問題、病人隱私問題、診斷可信度問題、醫療市場的碎片化等。但將來人工智能在醫療行業倒是大有可爲的,如【文章】中所述的醫學影像診斷,預測疾病分佈,個體治療方法的定製化,協助藥物研發等。將來的人工智能技術不只能夠分析大量的醫療歷史記錄,還能夠分析周邊可能影響健康的環境(例如污染、噪音等),檢測出其中的高危人羣,提醒當地政府採起措施;醫療專家能夠遠程監控病人健康情況以及飲食和運動規律,經過數據分析來預測病人的康復狀況或潛在風險,這樣也能緩解醫院的過度擁擠;使用了機器學習和天然語言處理技術的智能機器人能夠進行掛號登記,根據病人具體狀況分配給最合適的醫生;人們在家中能夠使用小型自動診斷設備執行簡單的平常身體監測和開具藥方,不只更加方便,也省去了不少跑醫院的成本;機器學習一樣能夠精確預測市場需求,優化庫存和產品組合。
總的來看,一項「disruptive technology」剛出現的時候,大部分人每每不覺得然,直到其真正爆發後,人們才忽然感覺到其「破壞性」的威力。人工智能的威力已然令不少人驚愕,在圍棋領域,AlphaGo已經打敗現世界排名第一的柯潔了,然而和以前與李世石的對戰不一樣,這一次人們幾乎一邊倒地預測阿爾法狗會贏。在這幾年間全面目擊了阿爾法狗的恐怖實力後,嚴肅和反思終於取代了懷疑和漠視。若是從如今回到過去來作預測的話,相信大部分人也會說確定是AlphaGo打敗李世石。
站在如今,看將來就像重重迷霧;但回望過去,一切又是那麼地清晰。《經濟學人》的這篇【文章】最後說其主要聚焦於人工智能近期的實際影響,人工智能在近的時代發展中會扮演愈來愈重要的角色,這是無可懷疑的,那麼遠的和更遠的將來呢?
當你在凝視深淵時,深淵也在凝視着你。
—— 尼采《論道德的譜系》
在《Life 3.0》中,MIT的物理學教授Max Tegmark 列舉了十幾種關乎將來人類與AI的可能情景 :
1. AI作主導者的自由主義烏托邦
2. AI成爲人類的善意獨裁者
3. AI和人類平等共存的烏托邦
4. AI做爲人類幸福的守護者和指路燈
5. AI主導着人類,也保護人類的安全
6. AI奴隸着人類
7. AI征服了人類
8. 人類滅亡後,AI成爲人類的後代
9. AI把人類當成寵物養在動物園裏
10. AI成爲獨裁者的工具
11. AI消滅了人類對地球的影響,讓人類迴歸田園時代
12. AI 和人類一塊兒走向共同滅亡
樂觀點來講,咱們自身的行動很大程度上會影響上述情景的走向,而預測將來最好的方法就是去創造將來。在這方面尼采的觀點最爲清晰,在《查拉圖斯特拉如是說》中列舉了精神的三段變化 —— 「駱駝「、」獅子「、」孩子「,喻指創造的終極形態: 駱駝不辭辛苦,忍辱負重,一輩子都在走一條沒有分叉的大道,一旦偏離就總會被人拽回來;獅子很是自大,敢於打破傳統觀念,能夠直接宣稱」上帝死了「,但卻只會打破不會創造;孩子心裏純淨,沒有教條的束縛,能夠從新創造新的價值,創造本身想要的將來。
然而事情並不是這麼簡單,若是單靠行動就能造出咱們理想中的將來,那爲何【文章】第二部分中說的:
我查閱了一下,這個計劃是在一個史稱「達特茅斯會議」的會上造成的,這個會議被普遍認爲是人工智能的起源。參會者有像克勞德·香農、馬文·明斯基、赫伯特·西蒙這樣的超級大牛,卻依而後來被證實錯得離譜,那可想而知咱們普通人對將來進行預測的難度了。鹽野七生的《羅馬人的故事》中有很著名的一段話:「歷史必然向前是真理,一樣,歷史上偶然事件的積累也是真理。成爲歷史的主角,就要儘快解決和擺脫很差的偶然,把好的偶然引向必然。」偶然事件的不斷疊加,就成了趨勢。好的偶然積累變爲正向趨勢,壞的偶然積累則成了負向循環,過度關注一個個偶然事件只會陷入見樹不見林的境地。
從大方向上來看,Google、Facebook、Amazon、Microsoft、IBM、LinkedIn、阿里、騰訊、百度等科技巨頭爭相宣佈將來發展核心壓寶在人工智能。因此在將來除非他們公開認可本身看走了眼,不然咱們這些生活被這些公司深入影響的普通人都將不得不捲入這股浪潮中。這已經無關乎人工智能對人類究竟會產生什麼樣的影響,而是將來的輪廓在某種程度上已是定好的了。這樣的話,與其說是人創造出了將來,不如說是提早佔據了既定將來的一席之地。咱們在展望將來時,將來也在回望着咱們。
托爾斯泰在《戰爭與和平》的最後一章闡述了其歷史哲學,其中的一大核心觀點是:「在咱們所觀察的每一行動中,都有必定程度的自由和必定程度的必然。任何行動中自由越多,必然就越少;必然越多,自由就越少。推進歷史進程的是由無數偶然性組成的必然性。因此人的自由意志從更加宏大的空間和更加久遠的視角來看,是微乎其微的」。若是從這個角度來考慮,上述這些公司的行爲其實並不存在多少自由意志。
公司與公司之間當然是不一樣的,有的追求短時間收益,有的重視長期規劃,但這些歸根結底取決於其對於需求的認識,即便是SpaceX這種爲全人類長期利益謀劃的公司,着眼點也是「人類客觀需求」是真實存在的,即留在地球不是長遠之計。因此從廣義上來講,驅動公司的主要因素是需求,這其中不只包括如今的需求,也包括將來的需求。固然也有人說是錢驅動公司行爲,由於公司的根本目的是盈利。但實際上只有知足了需求才能獲得錢,好比客戶想要一臺電腦,而你給他送過去一個冰箱,那不可能會付給你錢。
因此回過頭來看這些公司的「all in AI「 ,「AI First」,緣由實際上是他們認爲AI(在將來)可以知足人類的需求,知足了需求以後纔會盈利。因此從這一點上來講他們並無多少選擇的餘地,是全人類需求的大規模存在決定了將來。
固然,上述內容都有一個前提,那就是公司眼中的需求是否是與真實的需求相符?喬布斯曾經說過:「消費者並不知道本身須要什麼,直到咱們拿出本身的產品,他們就發現,這是我要的東西」。然而並非每一個人都有喬布斯那樣的洞察力(即便是喬布斯也有失手的時候,好比Apple Lisa和Apple III),大部分時候人們眼中的和真實的需求都難以匹配,因此接下來我想從一個更本源的角度來探討創造以前的認識問題。
數學裏有一個著名的公式:
$\Large{Av=\lambda v}$
大體意思是若是公式成立且特徵值 $λ$ 爲1,則向量 $v$ 經過矩陣 $A$ 進行線性變換後,依然保持原向量 $v$ 不變。從哲學的角度來看,這簡直是認識論的最高境界,外在事物經由咱們的感官傳入腦中而變換造成的概念是否能與該事物的原初面貌相同?這是很是困難的,上述公式並不是恆成立,即不是每一個向量都能通過變換而保持不變,而咱們對事物的理解與該事物的客觀實在也不見得相同(固然這不是惟物主義的觀念)。
然而咱們的認識自己又很是重要,人的行爲歸根結底取決於其對於所處世界的認識,不同的認識會產生不同的結果。在認識問題上,哲學家中一直存在着理性主義和經驗主義之爭,固然雙方都不是傻子,不多有哲學家會說咱們認識世界的方式是純粹靠理性或者純粹靠經驗,而是兩者誰佔主導的問題。康德在《純粹理性批判》開始處說:「毫無疑問的是,咱們的一切知識都是從經驗開始的……可是,儘管咱們的一切知識都是經過經驗來開啓的,知識卻不是所有起源於經驗」。咱們從外部世界中觀察到的東西須要通過知性的加工才能轉化爲知識,在認識過程當中,人自己比客觀事物更重要。然而康德認爲這世上有些東西是單靠人類的經驗和知識永遠沒法認識到的,他稱這些東西爲「自在之物」。當咱們展望將來時,是憑藉着經驗和知識進行預測,而因爲「自在之物」沒法被咱們認識到,因此即便「自在之物」對將來產生影響,咱們恐怕也難以意識到。
而從信息論的角度看,若是事先對事物一無所知,那要預測這樣事物是很是困難的,由於這其中存在着極大的不肯定性,即熵很大。要下降這種不肯定性,則須要引入信息,因此在這個系統中經驗和知識就是充當着信息的做用(而自在之物這種說不清道不明的東西顯然沒法充當信息)。然而正如康德所述:「經驗既不會提供嚴格的廣泛性,也不會提供不容置疑的肯定性。」光靠經驗是沒法完全消除不肯定性的,這也是爲何不少時候即便是專家也會作出錯誤的判斷。
固然,在研究歷史事件時,咱們手握大量的信息,於是不肯定性也被降到最低,這時候能夠經過因果律將一個個事物聯繫在一塊兒(不要忘了,即便是偶然事件,也必然存在着緣由)。當咱們站在如今回望過去時,能經過結果反推緣由,不怎麼費力地得出相應結論,好比如今咱們經過研究均可以說08年金融危機的原由之一是美國過於寬鬆的借貸體系。然而當咱們凝視將來時,因果關係就沒那麼容易確立了。
美籍華裔科幻做家特德·姜在《你一輩子的故事》中描繪了一個從結果推緣由的現象,以下圖所示 :
一束光從空氣進入水中會發生折射,圖中實線顯示的是光從A點到B點耗時最短的路徑,這是光實際走的路徑,而虛線是理論路徑,理論路徑比實際路徑要短,但實際耗時卻更長,由於光在水中的速度比在空氣中慢。這個現象詭異的地方在於,光彷彿知道本身的目的地在B點,也知道途中會碰到水,因此在比較計算了全部可能的路徑後,選擇了耗時最短的那條路徑,這在物理學上被稱爲費爾馬定律。這已經不是因果律了,而是目的論: 事先知道「果」,再反推到達這個「果」的「因」。小說中的外星生物「七肢桶」所發明的語言就有這種特性,因此它們在觀察事件後,便會知道最後的結果。由此,咱們的語言是否是也須要一次革新呢?
The limit of my language, is the limit of my world.
—— Ludwig Wittgenstein
傳說中,夏目漱石在擔任英文教師時,給學生出的一篇短文翻譯,要把文中男女主角在月下散步時男主角不由自主說出的"I love you"翻譯成日文。夏目漱石說,不該直譯成「我愛你」,而應含蓄,翻譯成「月が綺麗ですね」(今晚的月色真美)就足夠了。
【文章】第四部分提到深度學習是一個典型的黑箱算法,難以用語言解釋機器的決策過程,此爲其一大缺點,可真的是這樣嗎?咱們的語言明明如此多姿多彩、風情萬種,可爲什麼連區區模型決策過程都描述不出來呢?在這裏咱們先考察一下深度學習自己的特色,再回過來探討這個問題。這篇【文章】由於考慮到《經濟學人》的讀者羣體,因此在技術方面不可能深刻,想要進一步瞭解深度學習的話能夠參考三位深度學習大牛(Geoffrey Hinton,Yann LeCun, Yoshua Bengio,下圖)聯合在《Nature》上發表的綜述文章。
咱們日常用機器學習作各類任務,通常須要在原始數據的基礎上作特徵工程來提取新的特徵。特徵對於最後預測的結果很是重要,有句話叫:「數據和特徵決定了機器學習的上限,而模型和算法只是逼近這個上限」。然而手工選取特徵很是費時費力,並且每每須要依賴特定領域的專家知識來作判斷,好比預測一項產品會不會成功能夠從總體市場需求、產品特性和需求的契合度、產品自己的質量、價格、後端供應鏈的完善性、產品對於新需求的適應性、競爭對手的狀況、公司宣傳產品的力度、客戶服務的質量以及這些特徵之間相互組合篩選來進行評估,但現實中即便是人類專家要想設計出好特徵也是至關困難的。
深度學習與多數傳統的機器學習算法不一樣,能夠進行自動特徵提取,特別是對原始特徵進行非線性(non-linear)組合,經過多層處理,逐漸將初始 的「低層「特徵表示轉化爲「高層 「特徵表示,再用」簡單模型「便可完成複雜的分類等學習任務。整個過程無需人類干預,這是個很大的改變,因此深度學習也叫無監督特徵學習(Unsupervised Feature Learning)。
上圖顯示的是一條薩摩耶犬,來源於上文《Nature》裏的那篇文章,描繪的是一個卷積神經網絡(convolutional neuron network)自下而上的特徵提取過程。下面都是由原始像素提取的邊緣信息特徵,通過一步步聚合轉換成上面的高階特徵。而下圖(來源)更加清晰地表現出計算機學習出來的高階特徵已經包含了抽象全局信息,在此基礎上作分類就比較容易了。
深度學習的這種特性意味着其能夠被廣爲應用到各個領域,即便是不瞭解特定領域的人也能夠做出比領域專家更好的結果出來(特別是不少很難提取特徵的領域)。不少時候人們會發現深度學習有點「蠻不講理「的味道,能夠充分借用海量的數據和現代計算機強大的計算能力來」硬學「(這並非說深度學習沒有技術含量),不須要依靠領域知識。2012年9月,Kaggle 舉辦了Merck分子活動數據挖掘大賽,各路分子生物學、醫學、化學和藥學數據科學團隊紛紛出場,激烈廝殺。這個時候,Geoffrey Hinton 的博士生團隊拎着深度學習+GPU的大殺器闖進賽場,僅僅用了兩個星期,就把各路高手紛紛幹翻,奪得冠軍。重要的是,這個冠軍團隊是清一色的計算機和深度學習專家,一點生物、醫學、化學背景都沒有。
【文章】第二部分提到的ImageNet計算機視覺大賽,最初由斯坦福的李飛飛教授領銜推出,下圖顯示了近年來比賽得到第一名的偏差率,能夠看到2012年引入深度學習後,偏差率一會兒降低了將近10%,爲最大單年降低幅度。
下圖顯示2012年以前的ImageNet冠軍仍是使用傳統機器學習,但在2012年Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton等人使用了卷積神經網絡得到很大提高後,後面幾年的冠軍都變成了愈來愈複雜的深度神經網絡。
如今回到最開始的問題,深度學習的全自動特徵提取當然很好用,然而不少時候一個方面的優點反而成了另外一個方面的劣勢。下面仍由預測一項產品的成功機率舉例 :
若是進行傳統的邏輯迴歸,y表示成功的機率,模型學習出來的結果多是(由於是分類問題,這裏使用Sigmoid函數):
這樣就能直觀地看出新組合的「價格*質量*需求」這個特徵對產品的成功與否比較重要,也能夠看出價格的重要性大約是質量或需求的2倍。
而若是採用深度學習,則最後學習出的結果多是(這裏僅是舉例):
這樣就沒法看出究竟哪一個特徵對產品的成功與否比較重要,各特徵的重要性差別也是不得而知。若是這只是個產品預測問題,那至少不會是什麼性命攸關的問題,但若如【文章】中所述,無人駕駛汽車的變量選擇和決策過程,或者AI醫生的診斷推理過程是咱們人類沒法掌握的話,那聽上去確實是件很可怕的事情,這等因而把性命交給了一個神祕的陌生人來決定,而咱們甚至都不知道它是根據什麼來作決定的。
不過,若真要說黑箱的話,還有比量子力學更黑的嗎?量子力學已經有100多年曆史了,現在更是被視做現代物理學的基石。然而其原理實在太過古怪,以致量子力學的奠定人之一的玻爾曾說:「沒有被量子理論震驚的人,就是沒有理解它。」 在量子力學的世界裏,一個粒子以必定的機率處在A態,又有必定的機率處在B態,事實上在咱們沒有觀測前,粒子處於一個A態和B態疊加在一塊兒的混合狀態。但當咱們打開箱子進行觀測時,因爲觀測這個行爲會對系統產生影響,致使今天觀測粒子處於A態,明天觀測可能就變成了B態,整個理論構建在一種詭異的不肯定性上。所以不難想見量子力學在誕生初期也是飽受質疑,偉人如愛因斯坦都很鄙夷地說:「朋友,上帝可不會擲骰子。」可是整個過程當中就是物理學家先發現了許多與經典物理理論不符的現象,進而發展出量子力學的各類理論,這些理論得以解釋許多現象以及預言新的、沒法直接想象出來的現象。所以對照量子力學的發展過程,深度學習碰到的是相似的狀況,咱們不清楚模型內部是怎麼作決策的,但實踐的效果卻很好,只是亟待一種完總體系的創建。而翻看科學技術發展的歷史,工程實踐老是先於理論理解出現:透鏡和望遠鏡先於光學理論,蒸汽機先於熱動力學,飛機先於空氣動力學,無線電和數據通訊先於信息理論,計算機先於計算機科學。
或者再舉個平常點的例子: 「開車時憑什麼相信踩了剎車,汽車就會慢慢停下來?」 由於有摩擦力。摩擦力這個東西原本沒有名字,但科學家發現了這種現象並通過反覆實驗後,才認識到這種力的存在,進而將其命名爲「摩擦力」。而咱們大部分人認識的過程實際上是先被傳授了知識,說剎車會產生一個叫摩擦力的東西,使車中止,進而在實際操做中發現果然如此,因此就慢慢相信這一套了。因此這就是一個很明顯的例子,由咱們語言的改變導致咱們認識世界方式的改變。
所以從另外一個角度想,所謂的沒法解釋機器的決策過程,實際上是難以用咱們人類能夠理解的語言來解釋其決策過程。反過來講,可能並不是是機器沒法自我解釋,而是咱們的語言體系自己就弱爆了。好比上例中能夠發明一個詞叫「價需屢次體」來表示 ln(價格*需求),那麼ln(價格*需求^(3/2))就能夠說成是「價需屢次體需32」。下次人們在交流的時候,就能夠說:「在這個模型中價需屢次體需32比較重要,是其餘變量的XX倍」。剛開始人們可能很難適應這種解釋方式,可像開車同樣,剎車靈驗的次數多了,也就天然而然地相信並熟練應用了,並無人真去作實驗檢測摩擦力的存在性。雖然現實中的深度學習問題不會像我舉的這麼簡單,但這不失爲一個思路。其實能夠看到幾乎全部領域都存在大量的專業術語,這是由於原來平常的語言體系沒法承擔起描述領域知識的做用,因此不得不創造更多新的。
【文章】第二部分提到「遷移學習」,指系統能構建於過去習得的知識基礎之上,而不是每次都從頭開始訓練。人類作到這一點絕不費力,計算機卻不行,但咱們人類本身也沒法描述是如何作到這一點的,於是能夠說咱們能作許多本身沒法解釋的事情。咱們的大腦,說到底不過是一堆腦細胞所組成,然而這些細胞組合在一塊兒是如何產生思惟、夢境、意識和情緒的,又是如何使用這些來進行推理決策的?現代科學對此還不是很清楚。因此在上世紀人工智能一直裹足不前,以致【文章】中都說「儘管AI間歇性地取得過一些爆發式的進步,它給人的印象卻老是承諾遠大於成果」。由於人類本身都沒法解釋本身的認知決策過程,那又該如何教機器來作這些事情?所幸如今的機器學習能夠不用靠人類編程輸入顯式的規則,而是計算機經過大量的實際數據來自我學習規則完成任務,而至因而讓機器用咱們的語言來解釋其行爲,仍是咱們改進本身的語言體系來理解機器的決策過程,這是個能夠探討的問題。不過這一切的前提是,你得有大量的數據。
IN God we trust; all others bring DATA.
—— W. Edwards Deming
這篇文章提到馬雲說阿里巴巴是家數據公司,馬雲的話天然不可全信,但這話仍是值得玩味的。數據對於人工智能的重要性不言而喻,數據之於AI就如同食物之於人類。而隨着人工智能的不斷髮展,數據正演變成一種新的資產,若干年後的資產負債表上可能會增長數據規模、數據維度等項目,或者仿照現金流量表創建一張數據流量表,加在每個月財報裏,甚至能夠把數據做爲一種新型貨幣來交易。好比IBM與許多醫藥公司和醫院進行合做,獲取數據來訓練Watson系統,這是不得已而爲之的。從目前來看,智能化道路上最大的障礙不是算法,不是計算能力,而是大量高質量的數據。算法框架各大科技巨頭均已開源,計算能力不足能夠經過雲計算實現,然而數據,特別是醫療數據是很是敏感的(亞馬遜的醫療數據泄露就引發軒然大波),很是難以得到,並且不少疑難雜症,全世界都沒有幾例,也就無法對這個類別蒐集大量數據。而IBM花大成本研發的系統若是沒有大量的數據做支撐的話,就如同是沒有水的護城河 —— 雖不能說徹底是個擺設,但終究是做用有限。
而與之相比,對於不少互聯網巨頭而言,獲取數據的自由度就高多了。【文章】中說大型互聯網公司之因此都願意免費開放自家的AI框架,是由於在其餘層面他們手握巨大優點:即可以獲取大量用於訓練的用戶數據。《經濟學人》以前發表過一篇文章(The Great Divergence ),講的是熊彼得的著名理論認爲作一個行業領先者是至關危險的,由於後來者能夠利用現成的知識和技術加以適當改進來趕超領先者。但近年來的研究卻發現各行各業都出現了「贏者通吃」的局面,由於行業領先者擁有雄厚的資源能夠不斷投資新技術,以及都掌握着一些壟斷優點。這反映在數據層面也一樣是如此,大公司因爲擁有得天獨厚的數據優點,在人工智能的發展上就領先了一步。
在數據層面還有一個值得考慮的問題,這個問題會直接影響數據的使用 —— 即數據的標註。目前機器學習界占主導地位的是監督學習,其中特別是深度學習這類算法,須要大量帶標籤的數據進行訓練,像ImageNet的數據庫中有2.2萬個類別、1500 萬帶標籤的圖片,據李飛飛介紹這麼多圖片是花了3年才所有標註完的。數據的標註甚至已演變成了一個行業,能夠參閱這篇文章的介紹。
鑑於真實世界中大部分數據都是無標籤的,而人工對數據進行標註又很是費時費力容易出錯,因此如今機器學習和深度學習中,重要的宏觀趨勢是算法研究正逐步從監督學習轉變爲無監督學習和小樣本學習。Yann LeCun在不少演講中反覆提到一個著名的「蛋糕」比喻,來解釋無監督學習的重要性:
原本這一節寫到這裏就能夠擱筆了,然而最近DeepMind又出來搞事了。2017年10月18日,DeepMind在《Nature》上發表了一篇論文,介紹了依靠純強化學習訓練而成的阿爾法元(AlphaGo Zero)。對於從業者來講,這其中最大的亮點不是能100:0橫掃舊版AlphaGo,而是看到了一絲但願,即不須要大量人類提供的數據(在圍棋中,意味着歷史棋譜)進行訓練。若是能妥善解決目前廣泛存在的數據缺失問題,那對整我的工智能界乃至全人類發展的影響都比成爲圍棋世界排名第一要大的多。
人工智能的一項重要目標,是在沒有任何先驗知識的前提下,經過徹底的自學,在極具挑戰性的領域,超越人類水平。而AlphaGo Zero就是不參考歷史棋譜,不須要人類的樣例和指導,只以棋盤上的黑子和白子做爲輸入,經過本身和本身博弈進行訓練。據AlphaGo Zero的第一做者、UCL的教授David Silver在訪談中介紹:他們在以前的AlphaGo中嘗試過自我博弈,但發現都不穩定,此次發現AlphaGo Zero所使用的算法是最高效的,因此他以爲目前來看算法比數據重要,這對於整個業界來講都是重要的新思路。
AlphaGo Zero的出現令強化學習大放異彩,早些時候強化學習就在《麻省理工科技評論》發佈的2017年全球十大突破性技術榜單上排名第一。如【文章】中所述,監督學習、強化學習和無監督學習是機器學習的三大框架。強化學習的主要過程是智能體在環境中觀察並採起行動,以得到最大的指望獎勵,以下圖所示 :
強化學習主要適用於須要與環境不斷交互來得到最大獎勵的領域。好比一個智能體能夠在股市中不斷進行觀察,繼而在每秒決定買進仍是賣出。股市是一個極端複雜不可控的環境,再厲害的人類交易員,也很難在高維數據分析方面比得過機器學習算法。另外,投資不少時候須要極度理性,看清長遠趨勢,放棄短時間利益才能最終得到收益最大化。而強化學習偏偏擅長放長線釣大魚,在訓練過程當中經過不斷模擬和試錯,神經網絡調整參數,智能體最終識別出獲取最大獎勵的途徑。許多人都驚歎於AlphaGo在比賽中表現出的超越人類選手的大局觀,其實意思也就是說,它在前期可能會下幾步出人意料的棋,但到了中後盤,人們慢慢發現這幾步棋成了最終獲勝的關鍵。
早在AlphaGo以前,DeepMind就曾以深度強化學習算法在世界上揚名。圍棋做爲一項運動是有必定門檻的,而事實上大部分人都不會下圍棋,因此本質上也不知道AlphaGo究竟厲害在什麼地方,只能從側面(好比打敗全部圍棋高手)得到一些信息。這就像著名小提琴家斯特恩曾這樣評論二十世紀最偉大的小提琴家海菲茲:「全部人都知道海菲茲拉得好,但只有拉到我這樣水平的人,才明白他的技術究竟有多高超。」
然而,若是讓AI玩一個每一個人小時候都玩過的遊戲,那狀況就不一樣了 :
https://www.bilibili.com/video/av7826870/?from=search&seid=14295172322351513295
上面這個視頻,顯示的是DeepMind的AI在玩「打磚塊」遊戲上的自我進化過程。該AI全部的輸入僅爲現有的分數和遊戲畫面上的像素,其餘的要素好比球、磚塊、滑板等,它一律不知。也就是說,除了得到的分數之外,沒有任何人爲輸入的遊戲規則信息,全靠長期訓練,讓AI本身悟出,什麼是獲取最高分數的策略。因此剛開始時,AI的表現不好,總是漏球;通過400次訓練後,AI已經能很熟練地接住全部球了。而到了600次訓練後,AI本身「想」出了一個絕妙的策略,它將磚塊牆的左邊打出一個通道,而後經過這個通道把球打到牆的後面,這樣就能快速得到大量分數。這個精巧的打法,是DeepMind的研究者本身都未曾想到的, AI發現了比人類更好的打法。在這個短短一分多種的視頻中,人們見識到了由原來的「弱智」AI進化到遊戲高手的全過程,並且DeepMind用一樣的技術讓AI從0開始玩了其餘49種不一樣的遊戲,最終AI在29種中賽過了人類測試者。DeepMind於2013年12月發表了這項成果,一個月以後,Google宣佈以五億美圓收購DeepMind,後面的故事,如今你們都已經知道了。
【文章】中說Hassabis等人的願景是開發出通用人工智能(AGI),一個能完成多種任務的系統,而相比較而言,如今的人工智能系統大多隻能作同一件事。後文中Hassabis繼續說,」 我想咱們已經掌握了一些關鍵信息 ,可以幫助咱們向真正實現AGI技術靠攏。「 果不其然,2017年12月AlphaGo 研究團隊提出了 AlphaZero:一種能夠從零開始,經過自我對弈強化學習在多種任務上達到超越人類水平的新算法。據稱,新的算法通過不到 24 小時的訓練後,能夠在國際象棋和日本將棋上擊敗目前業內頂尖的計算機程序(這些程序早已超越人類世界冠軍水平),也能夠輕鬆擊敗訓練 3 天時間的 AlphaGo Zero。如今,DeepMind的這些採用新算法的AI能不依靠人類的數據和指導,只經過基本規則進行自我學習就能在多個特定領域超越人類水平,這是通往AGI的關鍵一步。只是若是真出現了通用人工智能,人類又該何去何從呢?
人類是惟一會交易的動物;沒有狗會交換本身的骨頭。
—— 亞當·斯密《國富論》
【文章】第四部分提到了一個叫作「全球基本收入(Universal Basic Income)」的制度,大意是 ——「每一個人,無論什麼狀況,都會按期得到固定數額的錢(好比每一年10000美圓),除此以外再無其餘福利金」。基本收入不與原來的收入水平掛鉤,不論你的工資是100塊、1萬塊仍是沒有工做,你都會得到定額的基本收入。
乍看上去這是個很二的制度,如【文章】中所述,若是不用工做就能得到一筆能維持基本生活的錢,那爲何還要出去工做,爲什麼不成天宅在家玩遊戲呢 ? 並且發放的很大一部分基本收入會遭到「浪費「,由於每一個人得到的基本收入都是同樣的,富人原本就很富足,因此基本收入對於他們來講不痛不癢;而窮人也沒有所以得到更多的補助,所謂的社會福利體系難道不該該更多地傾向於生活水平較低的人羣一邊嗎?
然而事實是,目前這種制度在全球正受到愈來愈普遍的關注,不少科技圈名人都提倡全球基本收入制,除了【文章】中的Sam Altman,還有Facebook的Mark Zuckerberg等人。而一些國家像芬蘭已經與2017年1月開始小範圍試驗該制度。因此下面先提出一些不一樣觀點來描述這個制度的本源。無論怎麼說,這是個全世界都須要不斷討論的議題。
首先,咱們日常說的收入多少,賺的錢多很少之類的,其實根本不取決於絕對數字,而是取決於你本身,你的家人,以及周圍人對你的「心理預期收益」。超出了預期,依然會認爲你賺的多,這種狀況下再去追求更多收入的動力也就小了。或者再舉個極端點的例子,王思聰若是在年底公佈說本身賺了5000萬,人們大概會很驚訝: 「堂堂王思聰才賺5000萬?賺5億還差很少啊「。
叔本華雲:「對於人的幸福快樂而言,主體遠遠比客體來得重要。」人的需求和慾望都是不一樣的,這意味着「心理預期收益「也不盡相同,並不是每一個人都以爲成天閒着在家過一生就能夠了。並且「心理預期收益「也會不斷變化,若是要買房結婚生小孩,那基本收入的錢可能就不夠用了。人在最初得到基本收入時可能會對此比較滿意,難以意識到長期利益的影響,但當看到基本收入沒法維持一些多樣的需求時,大部分人天然會面對現實選擇出去工做。
更況且,幸福感這個東西,不少時候都來自於比較。由於人畢竟是社會動物,看別人工做掙錢,周遊列國,購物不止,成天和你炫耀,而你卻只能守着一些政府給的基本收入,除了維持基本生活外啥也幹不了,此等情景絕對不會好受。有比較纔會產生動力,由此逐漸認識到如今的狀況不是本身想要的,進而尋求新的收入來源。
其次,基本收入制是對西方臃腫的現行福利體系的改革。對於芬蘭這樣的高福利國家而言,基本收入制可算是一個無奈之舉,由於目前的福利政策的實施成本過高,政府僱了大量的人來管理這個複雜的福利系統,而基本收入制由於簡單則不會有這麼高的行政成本。另外,目前福利體系的失業金至關高,而一旦去工做了,那意味着就沒有失業金可領了,還要繳納所得稅,因此不少人的理性選擇就是不工做,這樣下去若是智能化的程度愈來愈高,不工做的人也會愈來愈多,會出現僧多粥少的局面。相對而言,不論有沒有工做,基本收入制都會發固定的錢,這會促使失業者更加積極去尋找新工做。
另外一種改革的方向是負所得稅制(negative income tax),由經濟學家米爾頓·弗裏德曼所大力倡導。大意爲劃定一個收入水平界限,若收入高於這個界限,則要繳納所得稅;若低於這個界限,則政府會按必定比率給予補貼,收入越低得到的補貼就越多。這樣等於確保了每一個家庭都能有一份最低收入,同時避免了龐大的官僚機構。弗裏德曼是經濟自由主義的表明人物,一直以來都反對凱恩斯學派的國家干預主義,因此龐大低效的社會保障制度無疑是其深惡痛絕的。然而負所得稅制也存在一個問題,那就是不一樣地區的「生活水平」是不同的,好比北上廣和三四線城市的收入水平界限不大可能會劃得同樣。而若是按每一個地區的具體狀況單獨劃定收入水平界限,那一樣會激起不一樣地區的不滿,並且也不見得高效。
最後,不少人提倡全球基本收入制的根本緣由,就是看到了人工智能對工做的破壞性影響。
【文章】中提到19世紀工業革命時期人們對於機器的大範圍恐懼,甚至有人抨擊其爲「機械魔鬼「。當時盛行的盧德運動,就是被機器取代的工人們(他們被稱爲盧德分子)激烈地反抗工業革命,並對紡織機器進行大規模破壞。咱們現代人看當時這些工人們的行爲是很是好笑的,彷彿他們沒法認清時代的變革。但事實上這些工人面臨的生存危機可能超乎咱們的想象,據馬克思在《資本論》中記述:
馬克思對於資本主義的一大批判就是勞動分工把人當成龐大機器的一個零部件來看待,使得工做者不斷地重複一些固定的工做,久而久之只能掌握一些特定技能。經濟造成的基礎在於交易,工做者其實是把本身的勞動力看成商品來與企業進行交易,當這些工做被機器取代後,勞動力的交換價值就隨同它的使用價值一塊兒消失。而如【文章】中所述,因爲長期從事特定的工做,想要再從事別的工做一樣會變得很是困難。
與工業革命時期的機器相比,人工智能對於現今工做的影響可能更加巨大。前三次工業革命,讓人類擺脫了重體力勞動、精細體力勞動、簡單計算勞動。而這一次,伴隨着人工智能而來的機器學習,極可能讓人類沒必要在簡單思考判斷類勞動上消耗大量人力資源。【文章】中說判斷一項工做是否易受自動化的威脅,不在於這是體力仍是腦力工做,而在於其是否具備例行的流程。事實上如今不多有工做能徹底被自動化,根據MGI的報告,只有小於5%的工做有被徹底自動化的可能,但大約60%的職業中至少有30%的工做活動能夠被自動化,以下圖所示。因此將來的局面多是在工做中人與AI相互取長補短,共同完成任務,從這個意義上來講,AI不會取代人,而是能與AI配合的人會取代不能與AI配合的人。
可是若是深刻考慮一下的話,MGI報告裏體現的恐怕只是理想狀況。假設一我的的全部工做活動中有50%能夠被自動化,那他的工資還會是原來的工資嗎?這固然是不可能的啦,頗有可能他的工資也會變爲原來的50%,那世界上有幾我的能忍受這種狀況的?幾乎沒有。員工和企業的矛盾可能會由此不斷激化,超過一個零界點後,企業以爲管理成本過高,會愈來愈傾向於全自動化流程。因此將來自動化鋪展的速度可能會愈來愈快,讓人們始料未及,好比《南方週末》的這篇文章雖然講的是金融行業,但在這個時代也折射出不少行業面臨的現狀。
在1930年,經濟學家約翰·梅納德·凱恩斯創造了術語「技術性失業(technological unemployment)」,描述了技術的進步使得勞動需求減小,導致大批人失業。但他同時也認爲這只是一種「暫時性的經濟失調」。從歷史上工業革命的發展歷程來看,這確實是暫時性的,但也付出了大批人所以而窮困一輩子的代價,那麼在現現在自動化趨勢愈來愈猛烈的狀況下,咱們還想要再經歷一遍這個過程嗎?
因此,近年來倡導實行全球基本收入制的呼聲愈來愈高,也就能夠理解了。每個月固定得到的基本收入,至少可讓人們免除後顧之憂,從而更多地去嘗試學一些新技能,作一些沒法被自動化的工做。不少人不敢嘗試新工做、學習新技能是由於怕一旦不成功就會丟了飯碗,以致家庭生活失去了保障。正如盧梭所述:「人生而自由,卻無往不在枷鎖之中。」咱們每一個人原本都很自由,但後來卻時時受制於生活中各類資源喪失的風險而沒法自由作決斷,因此從這個角度來看基本收入提供的基本保障是給人們增長了一些自由度。
俄國大文豪陀思妥耶夫斯基的名做《卡拉馬佐夫兄弟》中有著名的一章 —— 《宗教大法官》,裏面提到這位擁有極高權力的大法官認爲,從人的本性來講,多數人都會爲了一個安定、有保障的生活,而寧願放棄自由,換句話說,就是以自由交換麪包(這裏的麪包更多地指物質利益)。若是一我的能把石頭變成麪包,人們就會對他俯首帖耳,不做多想。因此大法官才提出本身統治人類的三大要素:「奇蹟、祕密、權威」。大法官的思想無疑是極端的,但並不表明不具備現實意義。
自動化毫無疑問會大幅提升人們的生活水平,然而這些都須要時間,在【文章】中這種延遲現象被稱爲「恩格斯停滯(Engels’ pause)」。在這段時間中,大批失業和收入水平下降的人們可能會形成極大的社會動亂,進而給極權主義和不良分子一些可乘之機。在基本的生存問題都沒有解決面前,就不能期望再看重家國、道義和自由了。基本收入制度以及其餘各類各樣五花八門的制度,一大核心考量都是爲了在這個延遲階段給人們提供一些基本的收入保障,不讓人性的灰暗原罪瀰漫在整個社會上,希望這最終不會成爲另外一種空談。
我年紀還輕,閱歷不深的時候,我父親教導過我一句話,我至今還念念不忘。
「每逢你想要批評任何人的時候, 」他對我說,「你就記住,這個世界上全部的人,並非個個都擁
有你那些優越條件的。」
—— 菲茨傑拉德 《了不得的蓋茨比》
《經濟學人》2017年1月刊的封面是這樣:
這其中的主題已是再明顯不過了:在自動化時代,只有終生學習(lifelong learning)才能保持競爭力。在【文章】中吳恩達也說:「你須要一生不斷學習,從長遠來看這一點已是再明顯不過了。在大學裏所學的不足以讓你在後40年持續保持競爭力」。偉大的科幻做家阿西莫夫則說,「我堅信,自我教育是這個世界上惟一的一種教育形式。更重要的是,學校裏的正規教育總有中止的時候,但自我教育永無停歇。「
所幸,咱們身處互聯網時代,即便離開了學校,也能夠得到多元化的學習形式,像【文章】中的MOOC就是其中的典型表明。其實網絡公開課好久之前就有, 好比下圖是MIT的數學系名師Gilbert Strang 1999年的線性代數課程 :
下圖則是吳恩達2011年在Coursera上開設的《機器學習》課程:
我估摸着MIT的這門課多是有史以來最著名的線性代數課程,而這很大程度上是拜互聯網驚人的傳播能力所賜。對比上下兩張圖,其實授課方式並無很大的不一樣,因此從這一點上來講MOOC不能算很大的創新,這類課程成功與否的關鍵仍是在於教學質量,即使是1999年的課程,只要質量過硬,照樣被人翻出來膜拜。
從另外一個角度看,MOOC的適用對象主要是成年人,而對於小孩的學習來講不大適合。因此比較現實的作法是先在本地教育中打基礎,再去學MOOC上國內外名師的課程。可是如今想要得到優質教育的成本正持續走高。某種程度上來講,教育愈來愈成爲錢的遊戲,在美國,好久之前就是如此;在中國,隨着各類花式補課、學區房的繁榮也是愈演愈烈。歸根結底,這是場資源爭奪戰,幾乎整個社會都瀰漫着一種「不跟上就會落後」的氛圍。
彼得·德魯克在HBR的一篇經典文章(Managing Oneself)中提出,每一個人都應該考慮這樣一個問題 : 「我是如何學習的?」,在他看來一我的的學習方式是一種天性,很難更改。許多世界一流的做家,在上學時成績都很差,他們回憶小時候都以爲上學時光是一種折磨。緣由是寫做者經過「寫」來學習,而不是經過「聽」或「讀」來學習。然而學校不讓他們以這種方式學習,因此他們的用戶體驗都很糟糕。全部的學校都遵循這樣的辦學思路:只有一種正確的學習方式,並且人人都得聽從。可是,對學習方式跟別人不大同樣的學生來講,被迫按學校教的方式來學習就是地獄。
實際上,學習大概有六七種不一樣的方式。有些人經過不斷記筆記來學習;有些人經過聽取多方意見來學習;有些人經過實踐來學習;有些人經過自省來學習。若是不按本身擅長的學習方式來,那確實不大可能會學的好。因此在這個背景下,適應性學習(Adaptive Learning)應運而生。
數據時代一個很重要的特色是產品和服務可以按每一個人的喜愛定製,而如今對教育的定製化需求也開始顯現。【文章】中說的適應性學習就是可以根據每一個學生的具體狀況定製課程、以其最易理解的方式教授內容,並按本身的學習狀況調整進度。其實這樣老師們也能從中得到解脫,之後諸如上課、批改做業、回答平常問題這些流程性工做均可以交給計算機完成(好比喬治理工大學的教授創造了一個機器人教學助手,在2017年可以回答大約40%的學生問題,並且在不斷進步),老師們則能夠有更多的精力針對每一個學生的狀況進行個體關照,這種學生與教師之間的互動偏偏是目前的計算機沒法實現的。並且未來適應性學習不只適用於小孩的教育,對於企業內部培訓而言也一樣適用,效率絕對比大會議室法高多了。
有調查顯示,目前大約80家公司,好比Knewton和 DreamBox Learning,正在北美、歐洲和亞洲實驗其適應性學習系統。這些系統的核心技術,天然是人工智能。經過實時追蹤學生每堂課的暫停次數、回答問題所須要的時間、回答出錯的次數、面部表情、鼠標的移動規律、眼球追蹤、文字情感分析等項目,計算機視覺、天然語言處理和深度學習系統能夠創建起該學生的完整檔案,其中包含具體表現、知識掌握程度、上課投入度、自信度、認知水平、思惟模式、學習效率等傳統教學評估難以考量的項目,進而根據狀況調整學習任務。由此能夠看到適應性學習確實前景廣闊。
最後還存在一個問題: 在類人工智能時代,教育的方向是什麼?咱們真的要叫全部人都往這個熱門方向擠? 因此這裏又牽扯出一個亙古不變的選文科仍是選理科的問題,由於不少人說文科學了都沒什麼卵用,號召你們都去學理工科。關於這個問題,先來看看Peter Thiel怎麼說(出自CS183):
其實我絕不懷疑科技發展水平決定了人類將來生活水平的上限,然而就像一個小孩的良好成長鬚要好的環境同樣,科技的不斷進步和應用也須要良好的政治經濟社會環境的支持,這些偏偏是文科須要發揮主導做用的地方。文科須要把人類往「好的大方向」上引,而像《經濟學人》的這篇【文章】就從社會、政治、經濟、歷史這些宏觀層面來看待人工智能這個異軍突起的時代寵兒,讓人們在對人工智能有了清醒的認識後,才能更好地主宰將來的人工智能、乃至於人類自身的最終走向。
生活中只有兩種悲劇:一個是沒有獲得咱們想要的,另一個是獲得了咱們想要的。
—— 王爾德 《道連·葛雷的畫像》
縱觀整篇【文章】,人工智能對於咱們人類的潛在影響,各行各業的人都持各自不一樣的見解,這也很正常,畢竟「一千我的眼中有一千個陳冠希」。而這其中有3我的可謂是頻繁出鏡,他們的言論散佈在【文章】各個角落: 一個是DeepMind創始人、AlphaGo之父Demis Hassabis;一個是因Coursera上的《機器學習》課程而聞名全球的斯坦福大學教授吳恩達;而另外一個則是Elon Musk。
Elon Musk大概是當今世界上最受矚目的企業家(紐約時報稱他爲」幾乎是世界上最成功、最重要的企業家。」),參與並主導的公司包括:Zip2, X.com, Paypal, SpaceX, Tesla, SolarCity, Hyperloop,OpenAI,涉及的領域有:金融、汽車、航空航天、太陽能、衛星、快速軌道交通、能源儲存、外太空殖民(-。-)等。其中OpenAI是直接涉及人工智能的機構,而Tesla則因其無人駕駛系統也是備受人工智能界的關注。
無人駕駛汽車雖然在誕生之初就飽受質疑,【文章】的最後仍是顯示出了比較樂觀的態度,認爲無人車會爲社會帶來巨大的好處,主要體現爲減小道路上的車輛數量和車禍事故。試想,若是全部車輛都變成了自動駕駛,你真的還須要買一輛車嗎?到時候,大量的無人車在各類巨型停車場靜靜地趴着,只要有人下單,幾分鐘後,就會有一輛無人車來到你面前,任你驅使。不再用忍受不會開車沒法出行、偏遠地方打不到車、節假日堵車等狀況。並且駕駛,特別是長途駕駛,原本就是一個極其消耗時間和精力的事情,有了無人車代理後,人們也能夠有更多的精力用來工做學習、休息、陪伴家人等。
這裏可能有人會反駁說將來車的數量不會減小太多,由於不少人買車實際上是單純地想要擁有一輛車。 這裏首先須要考慮的是爲何會想要擁有一輛車,而不是想要擁有一架飛機、一幅畫或者一個音響?那是由於咱們從小就耳濡目染,說車是XX的象徵,擁有了車就表明擁有了XXX,因此潛移默化中車成了必須擁有的東西。然而到了將來狀況就不同了,正所謂「謊話重複一千遍就成了真理」,由於無人駕駛這項破壞性技術的普及使得對車的觀念將發生極大變化,社會的價值觀也會隨之改變,將來的小孩不見得從小會接收到太多這類「想要擁有車」的想法,就如同如今大部分人不會非要擁有一輛自行車同樣。
無人車能緩解堵車嚴重的狀況,一大緣由是車的總數量會減小,另外一大緣由則是能構建一個車與車以及道路物體(如紅綠燈)之間的物聯繫統,經過運籌學和計算機視覺算法進行統一的智能路徑規劃和決策,有效錯開高峯期。然而對於Elon Musk來講,這仍是遠遠不夠的。爲了減緩交通擁堵,他成立了The Boring Company,規劃在地下挖超級隧道,經過電動托盤實現紐約到華盛頓只要30分鐘(具體行駛過程見如下視頻)。整個路網依靠電力驅動,而托盤的動力系統等關鍵技術則來自Musk的另外一家公司Tesla。固然不少人以爲這個計劃不太現實,成本太大,但又都不敢下定論,畢竟想要作這個事情的人,但是那個把幾個行業都顛覆了個遍的Elon Musk啊。
https://www.bilibili.com/video/av10173000/?from=search&seid=13650802352394701105
在Elon Musk眼中,無人駕駛汽車還有個比較神奇的用途,那就是其在多個場合提到過的個體無人出租車的概念。假如你購買一輛全自動駕駛車,你能夠利用上班時間或者晚上在家裏的時間,放自駕車出去運營掙錢,也許沒幾年就能把買車的錢掙回來了,這確實是筆不錯的買賣。到時候Uber和滴滴的周圍就會憑空冒出不少競爭對手,而各家公司想必也會出臺新規定:不能在上班時間遠程遙控自家車,就如同如今規定不能在上班時間炒股玩遊戲同樣。
以上敘述體現出無人駕駛汽車將會極大改善咱們平常的生活模式,但相信其發展也不會一路順風。仍有不少人對無人車抱有頗多顧慮,認爲其可能會出現系統性的失控,形成大規模事故。因此從這一點上也能夠看到,人們在憧憬將來的同時,也一直在擔心人工智能發展的方向問題。
【文章】中Hassabis和吳恩達這些AI圈內的人認爲如今一些關於AI的危言聳聽的言論是很是不切實際的,而Nick Bostrom對此的迴應是「一些AI研究者事實上和他有着一樣的顧慮」。這並不是是空穴來風,在2017年1月舉辦的阿西洛馬人工智能大會(Asilomar AI Conference)上,AI和非AI界的知名人物都有參加,其中就包括【文章】中的幾個主要人物: Elon Musk,Nick Bostrom,吳恩達, Demis Hassabis, Yoshua Bengio,Yann LeCun,Geoffrey Hinton,Patrick Lin等等(不過裏面沒有霍金,估計是來不了。。)。通過多天商討大會最終確立了關於將來人工智能發展的23條基本準則。
事實上,人們想要確保人工智能會向人類有利的方向發展,這是有道理的,由於人類的獨有領地正一步步被吞噬。Hans Moravec作了一張 「人類能力景觀圖(Landscape of Human Competence)「,這張圖的海平面是當前人工智能的發展階段,隨着海面的不斷升高,人類的技能也逐漸被機器所掌握。能夠看到算術,棋類運動(圍棋、國際象棋)已經沒入海底了,駕駛、投資、翻譯也是朝不保夕,而處在山頂的藝術、科研、寫做等項目暫時還比較安全。
然而,AI的創做能力已然不容小覷,至少看上去能把大部分人嚇唬住吧。好比MIT開發了一個以《弗蘭肯斯坦》做者瑪麗·雪萊爲名的編寫恐怖故事的AI系統:Shelley。這套人工智能系統經過循環神經網絡(RNN)+在線學習的組合模式,使用美國知名論壇網站Reddit上14多萬篇詭異故事做爲訓練材料,具有了自我編寫恐怖故事的基本能力。如今Shelley每隔一段時間就在推特上分享一則恐怖故事。而相比之下,微軟的小冰則是直接出版了一本詩集。
下圖來源於Justin Johnson在CS231n裏的PPT,顯示的是使用卷積神經網絡進行藝術風格轉換。
不少人以爲現今人工智能的發展簡直使人應接不暇,各類各樣新玩法層出不窮,這天然得益於科學家們多年來對於未知世界的探索。《紐約客》的這篇文章講了有「深度學習教父」之稱的Geoffrey Hinton的一則軼事:
科學家的這種勇往直前的探索精神,對於科技的發展無疑是好事,但同時也應該清楚地認識到這其中的隱患。Nick Bostrom曾說:」技術的飛速發展使咱們將要面對的是’philosophy with a deadline‘」。確實是如此,隨着人類的獨有領地被一步步吞噬,不少哲學層面的問題也變得日趨緊迫。哲學家們花費了上千年討論存在、道德、意識、自由意志等問題,至今沒有達成共識。在柏拉圖和笛卡爾的時代,這並非什麼大礙,由於全部的超智能體都只存在於人們的想象中;然而到了21世紀,這些爭論正從哲學界慢慢轉移到了人工智能界,將來超智能體的出現將使原先抽象的哲學問題變爲具象的道德問題。
總的來講,咱們但願本身創造出來的超智能體既很聰明,又能時刻恪守咱們所制定的道德準則,這確實很像是在玩火。更況且這裏面有個隱含的假設,咱們通常所說的」聰明「有個前提,那就是這個」聰明「是能被使用在咱們自己看重的事情上面的。【文章】第五部分中列舉的」回形針極大化「的思惟實驗,若是真有AI瘋狂地收集回形針,估計人們會認爲其是」人工弱智「而非」人工智能「;而反過來,若是一個AI能幫咱們瘋狂地收集錢財,那咱們必然會認爲它很聰明(若是有AI能把整個地球改形成回形針工廠的話,那我真以爲這是絕頂聰明)。因此咱們人類的需求很簡單,不是要很聰明的AI,而是要」符合咱們價值觀「且「不會反噬咱們」的聰明AI。因此關鍵問題是在未來咱們的目標是否會與AI的目標合體,但這裏又衍生出幾個問題:如何賦予AI目標?隨着AI變得愈來愈聰明,其目標還會保持下去嗎?若是AI的智力超過了人類,它們還會遵照咱們的目標嗎?咱們人類的終極目標又是什麼?在真正的超智能體出現以前,這些都是必需要回答的問題。不然到時候咱們的感覺大概會與【文章】中的英國詩人Robert Southey相似 :
人們以前對AI多年來的龜速進展大失所望,然而諷刺的是,如今不少人卻認爲它發展地太快了。本篇文章在冷靜客觀地評估後,我沒有得出任何結論,反正明天太陽會照常升起,而50億年以後地球也終究會毀滅,不是嗎?
Reference:
[1] Ricardo J. Caballero. Creative Destruction
[2] Clayton Christensen. The Innovator's Dilemma
[3] McKinsey Global Institute. Artificial intelligence: The next digital frontier?
[4] McKinsey Global Institute. A Future that Works: Automation, Employment, and Productivity
[5] Accenture. How Artificial Intelligence Can Drive China’s Growth
[6] Max Tegmark. Life 3.0
[7] 弗里德里希·尼采.《查拉圖斯特拉如是說》
[8] 伊曼努爾·康德.《純粹理性批判》
[9] 亞瑟·叔本華.《人生的智慧》
[10] 鹽野七生.《羅馬人的故事》
[11]吳軍.《數學之美》
[12] 特德·姜.《你一輩子的故事》
[13] 周志華.《機器學習》
[14] 曹天元.《量子物理史話》
[15] Aurélien Géron. Hands-On Machine Learning with Scikit-Learn& TensorFlow
[16] Richard S. Sutton & Andrew G. Barto. Reinforcement Learning: An Introduction
[17] Fei-Fei Li & Justin Johnson & Serena Yeung. CS231n
[18] Wikipedia. Basic Income
[19] 卡爾·馬克思.《資本論》
[20] 米爾頓·弗裏德曼.《自由選擇》
[21] 讓-雅克·盧梭.《社會契約論》
[22] 費·陀思妥耶夫斯基.《卡拉馬佐夫兄弟》
[23] 列夫·托爾斯泰.《戰爭與和平》
[24] Wikipedia. Autonomous car
[25] TED-talk. The future we're building -- and boring
/