AI透明度引起關注,科技巨頭推工具解釋算法決策過程

人工智能技術的透明度和道德倫理問題,正引起愈來愈多的關注,這促使雲計算服務提供商推出新工具,解釋人工智能算法背後的決策過程。算法

會計和金融等強監管行業的高管表示,數據科學家和非技術業務經理都必須能理解算法決策背後的流程,這相當重要。這樣的理解在防範潛在道德違規和監管違規方面可能會帶來深遠影響,尤爲考慮到企業級人工智能算法正變得愈來愈廣泛。網絡

畢馬威創新和企業解決方案部門負責智能自動化、認知和人工智能的高管維諾德·斯瓦米納桑(Vinodh Swaminathan)表示:「我認爲,除非具有這種解釋能力,不然人工智能在企業中的規模不可能超過數百個試點應用。」工具

對人工智能的解釋問題已經促使IBM和谷歌等公司在雲計算人工智能服務產品中引入透明度和道德倫理工具。好比,IBM商業價值研究所近期的一項研究調查了5000名企業高管。約60%的受訪者表示,他們關心如何解釋人工智能使用數據做出決策,以達到監管和合規標準。這個比例較2016年時的29%大幅上升。學習

甚至對數據科學家和相關企業高管來講,人工智能的決策過程有時都是「黑盒」。在深度學習工具,例如用於模式識別的神經網絡中尤爲如此。這樣的神經網絡試圖模擬人腦的運轉方式。儘管這些系統能夠之前所未有的準確率和速度得出結論,但外界並不老是很是清楚,計算網絡是如何作出具體的決策。雲計算

畢馬威內部的數據科學家正在開發自主的可解釋性工具,此外該公司也在利用IBM新的透明度工具。斯瓦米納桑表示,這樣作的目的是確保技術和業務兩方面的員工都能「打開黑盒」,準確地瞭解人工智能算法是如何作出結論的。人工智能

IBM上週發佈了新的雲計算人工智能工具,能夠向用戶展現哪些主要因素影響了人工智能作出的建議。這些工具還能夠實時分析人工智能決策,以識別固有偏見,並推薦數據和方法來解決這些偏見。IBM負責認知解決方案的高級副總裁大衛·肯尼(David Kenny)表示,這些工具能夠與IBM人工智能服務,以及谷歌等其餘雲計算服務提供商的工具配合使用。開發

相關文章
相關標籤/搜索