用可組合的構建塊豐富用戶界面?谷歌提出「可解釋性」的最新詮釋

本文轉自雷克世界(ID:raicworld) 編譯 | 嗯~阿童木呀 隨着在神經網絡領域不斷取得新的發展成果,有一個相對應的需求也亟待解決,即能夠對其決策進行解釋,包括建立它們在現實世界中行爲方式的置信度、檢測模型偏差以及科學好奇心。爲了做到這一點,我們需要構建深度抽象,並在豐富的界面中對它們進行修飾(或實例化)。可以說,除了極少數例外,現有的研究在關於可解釋性這一點上並沒有多少建樹。 機器學習社
相關文章
相關標籤/搜索