Towards Adversarially Robust Object Detection 論文筆記

前言 許多工作證明分類器在面對對抗攻擊(adversarial attack)時是非常脆弱的,比如有一種對抗樣本,它只對原圖進行很輕微地修改,但是在視覺上與原圖相比是完全不同的。因此也有很多工作致力於提升分類器的魯棒性。 最近的一些工作發現,目標檢測器也會由於蓄意設計的輸入而受到攻擊,如下圖所示,展示了標準檢測器和魯棒性更強的檢測器分別檢測clean和adversarial圖像的效果,可以看到,標
相關文章
相關標籤/搜索