論文寫作準備(一)—— 初識可解釋性深度學習

一、深度學習爲什麼需要可解釋性?(動機) 模型改進:理解指標特徵、分類、預測,進而理解爲什麼一個模型會做出這樣的決定、什麼特徵在決定中起最重要作用,能讓我們判斷模型是否符合常理。一個深度的神經網絡來學習區分狼和哈士奇的圖像。模型使用大量圖像訓練,並使用另外的一些圖像進行測試。90%的圖像被準確預測,這值得我們高興。但是在沒有計算解釋函數(explainer function)時,我們不知道該模型主
相關文章
相關標籤/搜索