讓運算過程透明化 使民衆更加信任人工智能

有效的人工智能運算當然高效率,不過對咱們而言,很難理解到底它們是怎樣作決定。MIT 最近的研究,讓人工智能用人類能夠理解的方式,描述運算思考過程,使大衆對人工智能系統有更多信任。網絡

最近由 MIT 林肯實驗室情報和決策技術小組發表的學術報告《設計透明度:縮小視覺推理中效能與可解釋性之間的差距》(Transparency by Design: Closing the Gap Between Performance and Interpretability in Visual Reasoning),研究人員描述一視覺分析系統,可像人類解釋計算出答案的推理步驟,運算過程更透明。神經網絡 TbD-net 透過熱力圖進行視覺分析,分析人類語言的問題後,拆分爲不一樣的分析工做。當它分析一張照片,會在有特徵的部分加上顏色標記,表明哪部分有模塊輸出進行特定工做,集合各區域的運算結果,組合成最終的答案。post

系統雖然提供人類可理解的運算過程顯示,效能仍然至關優異。研究輸入 85,000 張圖像和 850,000 條問題以後,TbD-net 的準確度達 98.7%,比其餘神經網絡運算方式更佳。人工智能

透過讓運算過程變透明,研究人員相信可以讓大衆更信任系統,避免人工智能給人黑箱做業感,特別在軍事和政府監控相關係統更重要。IBM Research AI 部門主管 Aleksandra Mojsilovic 表示,大型人工智能系統有龐大的潛力改變咱們的生活,所以透明度問題必定要先解決,纔可以讓人類信任。
文章轉自:http://www.mvol.org.tw/post.aspspa

相關文章
相關標籤/搜索