下一代人工智能:邏輯理解?物理理解?

近日,由開放原子開源基金會與 Linux 基金會聯合開源中國共同舉辦的首屆「GOTC 全球開源技術峯會」在上海世博中心圓滿落幕。做爲LF AI & Data子基金會的理事會成員之一,OPPO數智工程系統資深技術專家Liam Zheng在GOTC「AI大數據與數字經濟」分論壇發表了名爲《下一代人工智能:邏輯理解?物理理解?》的演講。本文經過對Liam的訪談,向你們分享他對下一代人工智能的見解與理解。算法

Q1:在本次GOTC分論壇上發表《下一代人工智能的核心是邏輯理解和物理理解》這一演講的背景是什麼呢?
OPPO加入了LF AI &Data子基金會,咱們期待與其合做開源項目,在咱們的開源項目出來以前,咱們也須要一些預熱。此外,人工智能發展到當前階段,你們發如今實際部署上線後遇到好多badcase,可是又沒法很方便的去修改模型,一般須要大量標定數據,從新訓練模型。爲了解決上述問題,個人觀點是人工智能下一代應該是從邏輯層面和物理層面去深度地改造算法,而不能只是簡單的去添加數據或把模型作大。安全

Q2:那您主要從哪些方面去介紹這個問題呢?
當時主要是講了4部分,第一部分是目前人工智能面臨的瓶頸;第二部分是介紹了業內大咖對下一代人工智能的一些觀點;第三部分是我針對人類智能和人工智能進行對比分析;最後得出下一代人工智能的核心應該是邏輯理解和物理理解的觀點。網絡

Q3:目前與人類智能相比,您認爲人工智能處於哪一個階段呢?
人類智能實際上是有八個領域,目前人工智能只涉及了其中2-3個領域的工做。大部分的領域的數據表徵都尚未涉及到。因此如今的人工智能其實處於嬰兒時期,它遠遠沒有達到特別全面,特別完備的一個階段。機器學習

Q4:剛剛提到了人工智能的瓶頸,您認爲最大的瓶頸是什麼呢?
最主要的兩點,一個是魯棒性差,我舉了個例子:好比分類一張熊貓圖片,加了些隨機噪聲就變成了其餘類別。就是微小的擾動,模型判斷的結果就會差別很大,甚至能夠控制模型誤判到某個特定類別。
另外一點是可解釋性欠缺。好比說有時候這個模型可能表現特別好,有些狀況又表現比較糟糕,可是定位不到具體哪一個特徵哪一個層形成這個模型表現差。
以上兩點,在何積豐院士的《安全可信人工智能》講演裏也有提到。學習

Q5:對下一代人工智能業內是什麼樣的見解呢?
演講中我介紹了幾個大咖的見解。測試

一是Geoffrey E. Hinton提出了膠囊網絡的這個視角,他認爲cv模型不該該是Invariant,應該是equivariant,就是能反映出圖像的結構;如今的卷積模型不可以反映出圖像裏面的結構信息,把某個部件放在任何一個位置,而後得出來的結果都不變,好比人的眼睛隨便亂放也會得出是一張人臉。但若是人本身來看的話,人眼睛若是位置偏移的比較厲害的話,就徹底不像一張臉。大數據

二是Yan LeCun,他提出下一代人工智能主要依靠自監督學習;這個觀點我是基本贊成的,經過自監督學習來邏輯的物理的初始化模型空間,當前機器學習主要依靠監督學習,而在我看來,這只是機器學習中的一小部分ui

三是朱鬆純教授的觀點,他認爲下一代人工智能應該是烏鴉範式,經過小樣本多任務學習解決實際問題;人工智能

最後還有Yoshua Bengio,他認爲人工智能目前是感知階段,下一階段是認知階段,但我認爲感知階段還遠沒有結束。圖片

Q6:爲何說「下一代人工智能的核心是邏輯理解和物理理解」?
機器學習訓練集和測試集是基於IID(獨立同分布)的假設,實際上線後預估的數據經常是OOD(與訓練集分佈不一樣)。IID和OOD都是指表徵上的分佈,好的表徵會有好的OOD效果。雖然深度學習泛化能力比傳統機器學習要好些,可是一樣面臨OOD問題。當樣本空間很大時,訓練集永遠只是總體的微小部分,和整體的分佈會有很大差別。在微小訓練集上作簡單的監督學習只會學會訓練樣本的局部模式,由於只靠局部模式表徵就能夠取得訓練集和測試集的IID效果了,而局部模式表徵和局部模式遠遠不能知足上線後的OOD狀況。總之,OOD是形成當前人工智能魯棒性差的本質緣由。
下一代人工智能迫切要解決感知的魯棒性,關鍵在於表徵和訓練的邏輯理解和物理理解,而不是超大模型超大數據。

獲取更多精彩內容,關注[OPPO互聯網技術]公衆號

相關文章
相關標籤/搜索