乾貨 | 深度學習的可解釋性研究(一):讓模型「說人話」

在這篇文章中: 可解釋性是什麼? 我們爲什麼需要可解釋性? 有哪些可解釋性方法? 在建模之前的可解釋性方法 建立本身具備可解釋性的模型 在建模之後使用可解釋性性方法作出解釋 關於 BIGSCity 參考文獻 不以人類可以理解的方式給出的解釋都叫耍流氓,因此,我們要讓模型「說人話」。只要記住這三個字,你就差不多把握了可解釋性的精髓所在。 AI 科技評論按:本文爲 BIGSCity 的知乎專欄內容,作
相關文章
相關標籤/搜索