【論文閱讀·2】」Why Should I Trust You?」 Explaining the predictions of Any Classifier

這篇文章主要講述了一種解釋模型預測方法LIME,讓人們能夠理解模型背後的基本原理,有助於輔助用戶什麼時候信任或者不信任一個模型的預測。文章通過圖像識別和文本分類的案例說明準確率有時並不是最好的評價指標,此時需要一個解釋器的角色來告訴我們分類器如何做出預測等細節。作者提出了六個問題,並在兩部分實驗中一一解答。 關鍵詞:解釋預測方法、圖像識別、文本分類 1 爲什麼我們需要解釋器? 在進行機器學習的相關
相關文章
相關標籤/搜索