乾貨 | 深度學習的可解釋性研究(一):讓模型「說人話」

在這篇文章中: 可解釋性是什麼? 咱們爲何須要可解釋性? 有哪些可解釋性方法? 在建模以前的可解釋性方法 創建自己具有可解釋性的模型 在建模以後使用可解釋性性方法做出解釋 關於 BIGSCity 參考文獻 不以人類能夠理解的方式給出的解釋都叫耍流氓,所以,咱們要讓模型「說人話」。只要記住這三個字,你就差很少把握了可解釋性的精髓所在。html AI 科技評論按:本文爲 BIGSCity 的知乎專欄內
相關文章
相關標籤/搜索