摘要: 深度學習可能不是過度誇大,也許它只是沒有很好地被理解!
2012年左右,多倫多大學的研究人員首次使用深度學習來贏下了ImageNet,它是一項很是受歡迎的計算機圖像識別競賽。對於那些參與AI行業的人來講,這是一個大問題,由於計算機視覺是使計算機可以理解圖像背景的學科,也是人工智能中最具挑戰性的領域之一。html
固然,與任何其餘產生巨大影響的技術同樣,深度學習成爲炒做的焦點。不一樣的公司和組織開始應用它來解決不一樣的問題(或僞裝應用它)。許多公司開始使用深度學習和先進的人工智能技術重塑其產品和服務。ios
與此同時,媒體也常常撰寫有關人工智能和深度學習的故事,這些故事充滿誤導性,而且大可能是由那些對技術運做方式沒有正確理解的人撰寫。他們大多使用關於人工智能的聳人聽聞的頭條來博眼球,這些也促成了圍繞深度學習的炒做。程序員
通過媒體的炒做後,許多專家認爲深度學習被誇大了,它最終會消退並可能致使另外一個人工智能冬季,從而令人們對人工智能的興趣和資金投入大幅降低。其中一些著名專家也認可,深度學習已經觸底,其中包括一些深刻學習的先驅者。算法
但根據著名數據科學家和深度學習研究員傑里米·霍華德的說法,「深度學習過分誇大」的論點有點誇張。霍華德是fast.ai的創始人,<u style="box-sizing: border-box;">fast.ai</u>是一個非營利性的在線深度學習課程。編程
今年,霍華德在USENIX Enigma會議上發表的演講中發表了許多反對深度學習的論點。整個視頻很是清楚地說明了深度學習究竟作了什麼和不作什麼,這個演講能夠幫助你清楚地瞭解該領域。axios
如下是霍華德演講主要反駁的幾個論點:安全
許多人認爲深度學習是忽然冒出來,最終也會忽然消失。網絡
霍華德反駁解釋到:「你今天在深度學習中實際看到的是幾十年研究的結果,而這幾十年的研究終於達到了實際上給出最早進成果的程度。」機器學習
人工神經網絡的概念是深度學習算法的主要組成部分,它已存在數十年,第一個神經網絡能夠追溯到20世紀50年代。ide
可是,因爲數十年的研究以及數據和計算資源的可用性,深度學習的概念已經從實驗室走出並進入實際領域。
霍華德說:「利用深度學習,人們能夠減小不少複雜的繁瑣的事務,咱們應該期待看到[深度學習]繼續發展下去而不是消失。」
濫用人工智能詞彙很容易致使了從業人員對行業的混淆和懷疑。有人說深度學習只是機器學習的另外一個別稱,而其餘人則認爲它與其餘AI技術(如支持向量機(SVM),隨機森林和邏輯迴歸)屬於同一水平。
但深度學習和機器學習並不相同,深度學習是機器學習的一個子集。一般,機器學習適用於基於訓練數據的數學模型和行爲規則的全部技術。ML技術已經投入生產使用了很長時間。
在深度學習以前,科學家們必須在編寫「功能」或模塊方面投入大量精力,這些功能能夠執行模型想要執行的任務的一小部分。例如,若是你想建立一個能夠檢測貓的圖像的AI模型,你將不得不編寫較小的程序來檢測貓的特徵,如耳朵、尾巴、鼻子、皮毛。並且你必須使這些程序足夠強大,以便從不一樣角度和不一樣光照條件下檢測這些特徵,並告訴不一樣貓種之間的差別。最後你才能在這些功能之上進行機器學習。
若是你想解決更復雜的問題,如經過MRI掃描檢測乳腺癌,那麼建立特徵將變得更具挑戰性。霍華德說:「你將須要數十名領域專家與數十名計算機程序員和數學家合做,提出這些功能概念並對其進行編程。最後使用一個經典的機器學習模型,如邏輯迴歸。」這項工做大概須要數年的工做。
![經典的機器學習方法涉及許多複雜的步驟,須要數十名領域專家、數學家和程序員的合做
](https://upload-images.jianshu...
深度學習用神經網絡取代了艱苦的經典機器學習過程。霍華德將神經網絡描述爲「無限靈活的函數」。這意味着神經網絡能夠應用於機器學習解決的大多數問題,而無需經過之前必須執行的全部特定於域的特徵工程。
要想神經網絡解決特定問題,你須要調整其參數。爲此,深度學習使用「梯度降低」,這是一種通用優化算法,能夠將神經網絡的參數與其想要解決的問題相匹配。
最後,深度學習利用了近年來可用的GPU和專用硬件的強大功能,以合理快速和可擴展的方式執行這些任務。
霍華德說:「只有在過去的幾年裏,這三件事情才能讓咱們真正使用神經網絡來得到最早進的結果。」
所以,深度學習不是經過之前機器學習方法所涉及的專業知識密集型和容易出錯的過程,而是提供樣本數據(例如標記爲貓圖片,標記爲癌症或非癌症的MRI掃描...)並訓練神經元使用梯度降低的網絡。神經網絡比較並找到這些數據樣本中的常見模式,並學習應用相同的知識來分類之前從未見過的新數據樣本。
這種方法在過去幾年中深刻學習了最流行的人工智能技術,並引起了使用深度學習的應用程序的爆炸式增加。
不少人都認可深度學習是一種很是有用的人工智能技術,但不少批評者都抱怨它的使用僅限於解決涉及圖像分類的問題!
「圖像識別很是重要!」霍華德說。幾年前,霍華德和一組研究人員在肺部CT掃描上訓練了一個深度神經網絡,並建立了一種算法,能夠檢測惡性癌症腫瘤,這個算法的結果診斷的結果與四名人類放射科醫師相比,假陽性和陰性率更低。
霍華德還指出,許多問題能夠從新理解爲圖像識別問題。例如,在中國古代遊戲圍棋中擊敗世界冠軍的深度學習算法AlphaGo其實是一個圖像識別的卷積神經網絡(CNN)。
「具體來講,AlphaGo所作的是看了不少在真人玩過的圍棋的例子」霍華德解釋道。「基本上,他們最終作了一個圖像識別神經網絡,他們試圖學習的東西不是這張照片是貓仍是狗,而是這是一張白子贏或黑贏的圍棋照片。」這種方法一直是AlphaGo和許多掌握不一樣棋盤和視頻遊戲的AI算法成功的關鍵因素。
關鍵是,許多問題能夠轉化爲圖像識別問題,並經過深度學習解決。例如,霍華德深度學習課程的學生建立了一個神經網絡,該網絡在鼠標移動和點擊的圖像行爲上進行訓練。在這種狀況下,他建立了一個卷積神經網絡,試圖根據這些圖片預測欺詐行爲。
也就是說,深度學習也證實了其超越計算機視覺和圖像識別領域的價值。
霍華德指出,深度學習如今也適用於大多數天然語言處理(NLP)問題,這包括機器翻譯和文本摘要等領域。NLP是一個關鍵組件,它可使Siri,Alexa和Cortana等AI助手理解你的命令。(有一點要知道:深度學習對人類語言的掌握有限)
深度學習還能夠解決涉及結構化數據的問題,例如電子表格中的行和列。例如,你能夠爲神經網絡提供一組表明金融交易及結果(欺詐或正常)的行,並對其進行訓練以預測欺詐性交易。
霍華德指出,深度學習也能夠應用於時間序列和信號問題,例如鏈接到網絡的不一樣IP地址的事件順序或隨時間收集的傳感器數據。
霍華德還指出了一些深度學習成效有限的領域,這些領域包括強化學習,對抗模型和異常檢測。
一些專家認爲強化學習是當前人工智能的聖盃。強化學習涉及開發AI模型而不向他們提供大量標記數據。在強化學習中,你爲模型提供問題域的約束,並讓它開發本身的行爲規則。AlphaGo的高級版AlphaGo Zero就是使用強化學習從頭開始訓練本身,而後超過了AlphaGo。雖然深度強化學習是人工智能研究中比較有趣的領域之一,但它在解決現實問題方面沒有明顯的進展。Google Brain AI研究員Alex Irpan在深度強化學習的極限上有一篇引人深思的文章。
對抗模型是霍華德說起的另外一個深度學習痛點。對抗性示例是操縱輸入可能致使神經網絡以非理性方式運行的實例。有不少研究人員展現了對抗性<u style="box-sizing: border-box;">示例</u>如何可以成爲對AI模型的攻擊<u style="box-sizing: border-box;">者</u>。雖然已經作了一些努力來增強深層學習模式以對抗對抗性攻擊,但到目前爲止,成功有限。部分挑戰源於神經網絡很是複雜且難以解釋的事實。
異常檢測,霍華德談到的第三個深度學習痛點也很是具備挑戰性。通常概念是在基線數據上訓練神經網絡,並讓它肯定偏離基線的行爲。這是在網絡安全中使用AI的主要方法之一,一些公司正在探索這一律念。可是,它仍然沒法將本身確立爲對抗安全威脅的很是可靠的方法。
這是一個真正使人擔心的問題,尤爲是在人工智能模型被賦予關鍵決策的領域,例如醫療保健、自動駕駛汽車和刑事司法。那些願意讓深度學習表明他們作出決定的人須要知道推進這些決策的因素是什麼?不幸的是,當你在訓練神經網絡時得到的性能優點會下降你在決策過程當中得到的可見性。這就是深度學習一般被稱爲「黑匣子」的緣由。
可是,如今已經有了不少有趣的研究來解釋AI決策,並幫助工程師和最終用戶理解影響神經網絡輸出的元素。
通常認爲,要建立一個新的深度學習模型,須要訪問數百萬和數十億個帶標籤的示例,這就是爲何只有大型科技公司才能建立它。
「須要大量數據的說法一般不正確,由於大多數人在實踐中使用遷移學習」霍華德說。
遷移學習是機器學習中的一門學科,其中一個模型得到的知識被轉移到執行相似任務的另外一個模型。與人類如何將知識從一個領域轉移到另外一個領域相比,它很是原始。可是,遷移學習在深度學習領域是一個很是有用的工具,由於它使開發人員可以用更少的數據建立新模型。
霍華德解釋說:「你從一個預先訓練好的[神經]網絡開始,而後爲你的特定任務微調權重。通常來講,若是你有大約1,000個示例,你應該可以創建一個良好的神經網絡。」
深度學習是一個很是複雜的計算機科學領域,它涉及許多高級數學概念。可是在過去幾年中,學術界已經建立了大量的工具和庫來抽象出潛在的複雜性,並使你可以無須解決過多的數學問題來開發深度學習模型。
Fast.ai和Keras就是兩個現成的庫,可用於快速開發深度學習應用程序。還有不少在線課程,包括霍華德的fast.ai,Coursera和其餘課程,使你可以開始深刻學習編程,只須要不多的編程知識。許多具備計算機科學之外背景的人已經可以將這些課程應用於現實世界的問題。
須要明確的是,深度學習研究仍然是一個很是先進和複雜的領域,人才既稀缺又昂貴。開發新的深度學習技術的人是一些最使人垂涎和收入極高的研究人員。但這並不意味着其餘人須要擁有相同水平的知識才能在他們的應用程序中使用這些研究項目的結果。
「你可能會擔憂你須要一個充滿GPU的大房間,總的來講這並非真的,我如今看到的絕大部分紅功結果都是用一個GPU完成的。」 霍華德說
大型公司和組織進行的大型研究項目須要大量的GPU,例如一款機器人手用6144 CPU和8個GPU進行訓練出來的。另外一個例子是OpenAI Five,一個訓練有素的AI模型,能夠玩著名的Dota 2在線戰鬥競技遊戲,OpenAI Five是用了128,000個CPU內核和256個GPU的訓練的結果。
可是,大多數實際問題均可以經過單個GPU解決。例如,你能夠經過一個GPU來完成霍華德的Fast.ai課程。
我建議你觀看整個視頻,其中,霍華德深刻研究了一些更專業的主題,例如你是否能夠將深度學習應用於信息安全。重要的是咱們要了解深度學習的範圍和限制以及機會和優點,由於它是咱們這個時代最有影響力的技術之一。深度學習不是過度誇大,也許它只是沒有很好地被理解。
本文爲雲棲社區原創內容,未經容許不得轉載。