第十六講--對抗樣本和對抗訓練

對於人眼來說,圖片沒有發生變化,還是熊貓 但是!對於訓練好的模型來說,這個樣本會被分類爲猴子 不只是神經網絡,線性模型也會被攻擊,下圖圈出來的「9」已結不再被模型認爲是「9」了 這種表明看起來沒有區別的對抗樣本,不是由於模型的過擬合引起的。過擬合應該是隨機的,而不是具有系統性。 相反,是由於欠擬合(線性)導致,在離決策邊界遠的地方分數很高(即使從沒有那樣的樣本) 神經網絡事實上就是分段線性的(指的
相關文章
相關標籤/搜索