做者 | George Lawton
編譯 | CDA數據科學研究院
大多數AI都基於模式識別,可是正如任何高中生都會告訴您的那樣,關聯不是因果關係。研究人員如今正在尋找方法,以幫助AI深刻到更深層次。生活經驗告訴咱們,相關關係並不能直接推導出因果關係,但無論是平常生活仍是學術研究,對於因果關係的解釋要遠比相關關係重要得多。不少時候,咱們也會對事件之間的因果關係捉襟見肘。若是,把這個過程交給AI來處理會怎樣呢?算法
AI能夠利用深度學習技術來構建相關關係模型。深度學習技術經過關聯數據點在構建模型方面作得很好。可是許多AI研究人員認爲,須要更多的工做來理解因果關係,而不只僅是相關性。現場因果深度學習(對肯定某件事發生的緣由頗有用)仍處於起步階段,而且自動化比神經網絡困可貴多。許多AI都是關於在大量數據中查找隱藏模式的。全球IT服務公司L&T Infotech的執行副總裁兼首席數據分析官Soumendra Mohanty說:「顯然,這方面將咱們帶向了「什麼」,但不多有人去理解「爲何」。小程序
這種區別的含義可能很重要。最終,要創造出模仿人類智能的機器,就須要訓練AI來詢問爲何一種觀察會影響另外一種觀察。這就是爲何許多研究人員如今將注意力轉向這個問題的緣由。瀏覽器
加州大學洛杉磯分校(UCLA)教授朱迪亞·珀爾(Judea Pearl)激發了該領域的興奮,他從事了一些實施貝葉斯網絡以進行統計分析的造成性工做。最近,他一直在開發一個框架,用於繪製因果關係圖,並在可計算框架中找出致使觀察到的事件的因素。網絡
分析因果關係的最大挑戰之一是將範式更改成一種,其中專家對觀察的緣由提出主觀意見,而後經過各類分析技術將其分開。這與統計機器學習所追求的更加客觀的方法造成了鮮明的對比。從長遠來看,因果關係研究能夠爲理解世界提供更好的模型。在短時間內,因果分析將使解釋機器學習模型爲什麼能提供結果的緣由變得更加容易。框架
Information Builders營銷副總裁傑克·弗賴瓦爾德(Jake Freivald)說:「商業精英一般不相信黑盒子技術,但他們卻對人工智能技術有着異乎尋常的期待。」他表示,企業家意識到將業務流程交給人工智能算法可能就像讓他們兩歲的孩子駕駛本身的汽車同樣冒險。機器學習
問題在於分析和AI主要用於查找數據集中的相關性。因爲關聯僅暗示因果關係,所以這些關聯沒法幫助您理解發生某事的緣由-若是沒法作到,則只能告訴您接下來會發生什麼的可能性。工具
弗賴瓦爾德說:「咱們越能發現模型中的因果關係,在評估事情發生的緣由和下一步將發生的事情時,咱們就越能基於現實。」 「在那以前,將咱們的業務交託給AI模型可能會很是有效,直到失敗爲止,結果多是災難性的。」性能
曲線擬合在回答「下一個最佳報價是什麼?」、「這是欺詐嗎?」 或「是貓嗎?」等重要問題方面作得很好。莫漢蒂說:「可是,在現實世界中,有不少問題沒法經過曲線擬合來解決。」 若是有幾個因素能夠預測對產品的偏心,那麼企業應該嘗試影響哪一個因素,以及重要性的順序如何?簡單地對不一樣變量的預測目標能力進行排名與選擇獨立預測變量並評估其對結果的相對貢獻不一樣。學習
莫漢蒂說:「咱們能夠觀察到相關性,但這並不能證實甚至暗示因果關係。」 因果關係回答的問題是「我應該拉什麼槓桿來實現改變?」 或「若是我更改了模型的某些基本假設,將會發生什麼?」ui
因果深度學習技術(也稱爲結構方程模型(SEM))已經存在了不少年。莫漢蒂說:「可是,這些技術或多或少地侷限於學術界和研究領域,咱們尚未看到這些技術能夠轉化爲商業或商業用例。」
蒙特卡洛模擬,馬爾可夫鏈分析,樸素貝葉斯和隨機建模是當今使用的一些技術,但它們幾乎沒有涉及因果關係的表面。還有一些開源軟件包,例如DAGitty(基於瀏覽器的環境,用於建立,編輯和分析因果模型),以及Microsoft的DoWhy庫以進行因果推斷。可是這些也在發展。
自主庫存管理系統制造商Pensa Systems的首席執行官兼總裁Richard Schwartz表示,在較高的層次上,AI應用程序會根據觀察到的模式執行一系列操做。深度學習使用統計技術來發現模式。在因果關係中嵌入因果理解的另外一種方法涉及開發基於規則的系統。這種方法從其餘類型的客觀事實中得出結論,例如「向右轉3次與向左轉相同」。
規則能夠是因果關係的,也能夠是認知的,能夠幫助對輸入的結果進行建模,可是它們也有缺點。Schwartz說:「因果規則很難被理解,即便您確實定義了因果規則,它們也會變得更加脆弱。」潛在的解決方案在於兩種方法的結合-例如,爲神經網絡建立可解釋性。這種類型的因果深度學習涉及以更加艱苦的方式創建關於如何得出結論的認知模型。
AI引發人們注意的另外一種因果技術是一種強化學習,稱爲從示範學習(Learning from demonstration)。這種方法有效地顯示瞭如何完成某事的計算機示例,並使計算機嘗試使該技術適應其自身的問題解決方法。
Pensa在其庫存管理工具中同時使用兩種AI,以解決與在商店貨架上從新庫存庫存有關的問題。該公司的主要產品使用神經網絡來解釋來自攝像機和貨架上物品的計算機視覺輸入(例如,亨氏番茄醬)以及貨架的組織方式(例如,亨氏一般位於亨特的旁邊)。
它還使用因果模型來生成自動提示,例如「 Heinz電量不足」或「 Heinz電量徹底耗盡」。爲了得出這個結論,系統不只須要產品,還須要與貨架上須要的物品以及從新庫存的意義有關的規則。人們很是擅長認知結論,例如制定規則拇指,從而能夠得出結論。Schwartz說:「 Pensa用AI來裝瓶。」
德克薩斯大學奧斯汀分校的AI助理教授Scott Niekum表示,強化學習本質上是因果關係,由於代理會嘗試不一樣的動做並經過反覆試驗來了解它們如何影響性能。這種類型的學習稱爲「無模型」學習,之因此流行,是由於它能夠學習積極或有效的行爲,而沒必要學習明確的世界運轉模式。換句話說,它只是在學習行爲與績效之間的因果關係,而不是行爲如何直接影響世界。例如,這可能涉及瞭解在不瞭解水與火之間的關係的狀況下將整個水桶翻轉到火上而將其撲滅的狀況。
無模型學習是一把雙刃劍。若是沒有模型,則代理商可能必須從頭開始學習若是問題徹底改變時如何實現其目標。在較早的示例中,若是爲代理提供了軟管而不是一桶水,則不從頭開始學習就不會知道該怎麼作,由於它沒有學習水與火之間的因果關係,而只是學習了這種關係在「翻轉鬥」動做和滅火目標之間。
Niekum說:「因爲這些緣由,儘管基於模型的強化學習有其自身的挑戰,但人們對它的興趣愈來愈大。例如,您如何衡量對模型的信心,當模型出錯時該怎麼辦?試圖跨越長遠視野時,您會處理不肯定性嗎?」
可解釋性的核心思想是,解釋必須可以識別和量化致使深度學習模型行爲的全部因果關係。在這一點上,因果關係指的是模型功能自己,而不是模型要解決的任務,Fiddler Labs的數據科學負責人Ankur Taly說,該研究提供了可解釋的AI引擎。
因爲其複雜性,忠實地解釋深度學習模型具備挑戰性。這使得很難分析推理模型功能中每一個功能的重要性。早期的因果深度學習方法經過在數據集上觀察模型的預測,併爲其擬合一個更簡單,可解釋的模型來得到解釋,從而應對了這一挑戰。塔利說:「不幸的是,這樣的方法容易受到衆所周知的從觀測數據中推斷因果關係的陷阱。」 人們沒法從與模型相關的特徵中分離出與模型預測真正相關的特徵。
最近,出現了一組基於合做博弈的Shapley值的不一樣方法。這些方法使用反事實輸入來探查模型。可是,Fiddler的研究發現,若是數據集存在誤差,那麼大多數方法均可能致使誤差。塔利說,他們正在研究將模型解釋與任何特定數據集分離的方法。這種研究能夠幫助識別模型已學會依賴的虛假關聯。例如,黑客最近展現了經過添加某些類型的數據來僞造Cylance反惡意軟件引擎的功能。減輕此風險的一個好步驟是肯定顯着影響模型預測的因果特徵。塔利說:「而後,人們能夠研究這些功能,以檢查它們是否也是任務的誘因,或者是否能夠被對手利用,例如Cylance。」
現在,在指導深度學習過程創建因果關係建模方面,人類能夠比AI作得更好。InformationBuilders的Freivald說。這可能涉及限制數據集,刪除可能致使誤差的字段以及一般影響學習過程的過程。人類專一於因果關係,而算法則負責學習。有一個反饋迴路,但人的方面相當重要。
若是能夠經過AI工具肯定因果關係,則AI能夠塑造學習過程,而不是由人來作。從理論上講,AI能夠開始使用任意數據集,肯定因果關係並以人類會徹底忽略的方式應用學習。目前有不少問題。人類將通用智能應用於任務,而機器尚沒法作到這一點。最近這樣作的嘗試形成了麻煩。弗賴瓦爾德說:「咱們但願人工智能越通用,它就須要越多的數據,而且出現誤報的可能性就越大-機器迷信。」
掃碼進入CDA官方小程序,解鎖更多新鮮資訊和優質內容,還有免費試聽課程,不要錯過喲!