深度學習可解釋性

local explanation 方法1:用小方塊蓋住圖片的一塊區域,看看模型還能不能正確識別圖片,若是不能,說明這塊區域很重要 方法2:Saliency Map 求圖片的正確識別結果對圖片上每一個像素的梯度,梯度絕對值越大越重要。限制,稍微長點的鼻子就能夠識別爲大象,更長的鼻子部分的梯度有可能變得很是小。可能被攻擊,加上噪音,卡車識別正確,可是由於是雲彩web global explanati
相關文章
相關標籤/搜索