自我監督學習:提升深度學習數據效率的計劃

1_gradient-descent-deep-learning

儘管深度學習在人工智能領域作出了巨大貢獻,但它仍是有一個不太好的地方:它須要大量數據。這是深度學習的先驅者和批評家都贊成的一件事。實際上,因爲有用數據的有限可用性有限以及處理該數據的計算能力不足,深度學習直到幾年前才成爲領先的AI技術。算法

減小深度學習的數據依賴性是目前AI研究人員的首要任務之一。編程

在AAAI( the Association for the Advance of Artificial Intelligence )會議上的主題演講中,計算機科學家Yann LeCun討論了當前深度學習技術的侷限性,並提出了「自我監督學習」的藍圖,這是他解決深度學習數據問題的路線圖。LeCun是深度學習的教父之一,也是卷積神經網絡(CNN)的發明者,而CNN是在過去十年中引起人工智能革命的關鍵因素之一。網絡

自監督學習是建立數據高效人工智能系統的幾種計劃之一。在這一點上,很難預測哪一種技術將成功引起下一次AI革命。架構

深度學習的侷限性

首先,LeCun澄清了一個問題,一般所說的深度學習的侷限性其實是監督學習的侷限性。監督學習是一類須要標註訓練數據的機器學習算法。例如,若是你想建立一個圖像分類模型,你必須在大量的已經用適當的類進行了標記的圖像上訓練它。dom

深度學習不僅是神經網絡,它是經過將參數化的模塊組裝到計算圖中來構建系統的,你能夠不直接對系統進行編程。你定義架構,而後調整的那些些參數,深度學習能夠應用於不一樣的學習範式,包括監督學習,強化學習以及無監督或自我監督學習。機器學習

可是,圍繞深度學習和監督學習的困惑並不是沒有道理。目前,已進入實際應用的大多數深度學習算法都基於監督學習模型,這充分說明了AI系統當前的缺點。咱們天天使用的圖像分類器,面部識別系統,語音識別系統以及許多其餘AI應用程序已經在數百萬個帶有標籤的示例中進行了訓練。性能

到目前爲止,強化學習和無監督學習是學習算法的其餘類別,其應用很是有限。學習

深度學習今天站在哪裏?

2_random-vectors

有監督的深度學習給了咱們不少很是有用的應用,特別是在計算機視覺和天然語言處理的一些領域。深度學習在諸如癌症檢測等敏感應用中有發揮着愈來愈重要的做用。它也被證實在一些領域很是有用,在這些領域,問題的複雜性已經超出了人類努力的範圍,例如在天天審查社交媒體上發佈的大量內容時須要注意的一些問題。人工智能

但如前所述,監督學習僅適用於有足夠高質量數據且數據能夠捕獲全部可能場景的狀況。一旦通過訓練的深度學習模型面對不一樣於其訓練示例的新穎示例,它們就會開始以不可預知的方式表現。在某些狀況下,從一個稍微不一樣的角度顯示一個對象可能足以混淆一個神經網絡,使之誤認爲它與其餘東西。spa

3_objectnet_controls_table

深度強化學習在遊戲和模擬中顯示出顯著成果。在過去的幾年中,強化學習已經征服了許多之前認爲不能融入人工智能的遊戲。人工智能程序已經淘汰了《星際爭霸2》,《刀塔》和中國古代棋盤遊戲《圍棋》中的人類世界冠軍。

可是這些AI程序學習解決問題的方式與人類徹底不一樣。基本上,強化學習代理從空白開始,僅提供在其環境中能夠執行的一組基本操做。而後,讓AI本身進行嘗試,經過反覆試驗來學習如何產生最大的回報(例如,贏得更多的遊戲)。

當問題空間很簡單而且你具備足夠的計算能力來運行儘量多的反覆試驗時,該模型就可使用。在大多數狀況下,強化學習代理會花費大量的時間來掌握遊戲。巨大的成本將強化學習研究限制在富裕的科技公司或擁有資助的研究實驗室內。

4_reinforcement-learning-game-costs

強化學習系統在遷移學習中表現得不好。一個在大師級玩星際爭霸2的機器人若是想玩魔獸爭霸3,須要從頭開始訓練。事實上,即便星際爭霸遊戲環境的微小變化也會極大地下降人工智能的性能。相比之下,人類很是擅長從一個遊戲中提取抽象概念並將其轉移到另外一個遊戲中。

當強化學習想要學習解決現實世界中沒法精確模擬的問題時,它確實顯示出它的侷限性。若是你想訓練汽車本身駕駛呢?很難精確地模擬這一過程,若是咱們想在現實生活中作到這一點,咱們就必須摧毀許多汽車。並且與模擬環境不一樣,現實生活不容許你快速進行實驗,若是可能的話,並行實驗將致使更大的成本。

深度學習的三個挑戰

LeCun將深度學習的挑戰分爲三個領域。

首先,咱們須要開發能夠經過更少的樣本或更少的試驗學習的AI系統。LeCun說:「個人建議是使用無監督學習,或者我更喜歡將其稱爲自我監督學習,由於咱們使用的算法確實相似於監督學習,它基本上是學習填補空白。」。這是在學習任務以前學習表明世界的理念。嬰兒和動物就是這樣作的。咱們在學習任何任務以前先了解世界如何運轉。一旦咱們對世界有了良好的描述,學習一項任務就須要不多的試驗和不多的樣本。

嬰兒在出生後的幾個月裏就會發展出重力,尺寸和物體持續性的概念。雖然人們對這些能力中有多少是硬鏈接到大腦中的,有多少是學習到的還存在爭議,但能夠確定的是,咱們僅僅經過觀察周圍的世界就發展出了許多能力。

第二個挑戰是建立能夠推理的深度學習系統。衆所周知,當前的深度學習系統在推理和抽象上不好,這就是爲何它們須要大量數據來學習簡單任務的緣由。

問題是,咱們如何超越前饋計算和系統1?咱們如何使推理與基於梯度的學習兼容?咱們如何使推理具備差別性?

系統1是不須要主動思考的學習任務,例如導航已知區域或進行少許計算。系統2是一種較爲活躍的思惟方式,須要推理。事實證實,象徵人工智能(AI的經典方法)在推理和抽象方面要好得多。

可是LeCun並不建議像其餘科學家所建議的那樣回到象徵性AI或混合人工智能系統。他對人工智能將來的願景與另外一位深度學習先驅Yoshua Bengio更爲一致,Yoshua Bengio在NeurIPS 2019引入了system 2深度學習的概念,並在AAAI 2020進一步討論了這一律念。然而,LeCun認可沒有人有一個徹底正確的答案,可是這種方法會將使深度學習系統可以推理。

第三個挑戰是建立深度學習系統,該系統能夠精簡和計劃複雜的操做序列,並將任務分解爲子任務。深度學習系統擅長爲問題提供端到端的解決方案,但很難將它們分解爲具體的可解釋和可修改的步驟。在建立基於學習的人工智能系統方面已經取得了一些進展,該系統能夠分解圖像、語音和文本。Geoffry Hinton發明的膠囊網絡就是其中之一而且解決了其中一些挑戰。

可是學會推理複雜的任務已經超出了當今的人工智能。LeCun認可咱們不知道如何作到這一點。

自我監督學習

5_Thinking-robot

自我監督學習背後的想法是開發一種能夠學習填補空白的深度學習系統。

你向系統顯示輸入,文本,視頻甚至圖像,而後選擇其中的一部分,將其屏蔽,而後訓練神經網絡或您喜歡的類或模型來預測缺失的部分。這多是視頻處理的將來,也多是填補文本中缺乏的單詞的方式。

咱們最接近自我監督學習系統的是Transformers,該體系結構已在天然語言處理中被證實很是成功。Transformers不須要標記的數據。他們接受過大量非結構化文本的培訓,例如Wikipedia文章。在生成文本,進行對話和回答問題方面,他們已被證實比以前的系統要好得多,可是他們距離真正理解人類語言還有很遠的距離。

Transformers已經很是流行,而且是幾乎全部最新語言模型的基礎技術,包括Google的BERT,Facebook的RoBERTa,OpenAI的GPT2和Google的Meena聊天機器人。

最近,AI研究人員證實了Transformers能夠執行積分並求解微分方程,這是須要符號操縱的問題。這可能暗示着Transformers的發展可能使神經網絡超越模式識別和統計近似任務。

到目前爲止,Transformers已經證實了在處理謹慎的數據(例如單詞和數學符號)方面的價值。訓練這樣的系統很容易,雖然可能遺漏哪一個單詞,存在一些不肯定性,可是咱們能夠用整個字典中的巨大機率矢量來表示這種不肯定性,因此這不是問題。

可是,Transformers的成功還沒有轉移到視覺數據領域。事實證實,在圖像和視頻中表示不肯定性和預測要比在文本中表示不肯定性和預測要困可貴多,由於它不是離散的。咱們能夠產生字典中全部單詞的分佈,但咱們不知道如何表示全部可能的視頻幀的分佈。

對於每一個視頻片斷,都有無數可能的將來。這使得人工智能系統很難預測一個單一的結果,好比視頻中接下來的幾幀。神經網絡最終會計算出可能結果的平均值,從而致使輸出模糊。

若是要將自我監督的學習應用於視頻等多種形式,這是咱們必須解決的主要技術問題。

LeCun最喜歡的用於監督學習的方法就是他所說的「基於能量的潛在變量模型」。關鍵思想是引入一個潛在變量Z,該變量Z計算變量X(視頻中的當前幀)和預測Y(視頻的將來)之間的兼容性,並選擇具備最佳兼容性得分的結果。LeCun在演講中進一步闡述了基於能量的模型和其餘自我監督學習方法。

6_latent-variable-energy-based-models

深度學習的將來不受監督

「我認爲自我監督學習是將來。這將使咱們的AI系統,深度學習系統更上一層樓,也許能夠經過觀察來了解有關世界的足夠背景知識,從而可能出現某種常識。」 LeCun在AAAI會議演講中說。

自我監督學習的主要好處之一是AI輸出的信息量巨大。在強化學習中,訓練AI系統是在標量級別執行的;該模型會收到一個數值做爲對其行爲的獎勵或懲罰。在監督學習中,AI系統爲每一個輸入預測一個類別或數值。

在自我監督學習中,輸出將改善爲整個圖像或一組圖像。這是更多的信息。瞭解有關世界的相同知識,您須要的樣本更少。

咱們仍然必須弄清楚不肯定性問題是如何工做的,可是當解決方案出現時,咱們將解鎖AI將來的關鍵組成部分。

若是說人工智能是一塊蛋糕,那麼自我監督學習就是其中的主要內容。人工智能的下一輪革命將不會受到監督,也不會獲得純粹的增強。

原文連接: https://bdtechtalks.com/2020/...

相關文章
相關標籤/搜索