【李宏毅】機器學習 筆記12(Attack ML Models)

Attack: 通過在原來的特徵值上加上一些雜訊,讓network做出錯誤的判斷。 定義attack的loss function: 找到一個與x0很接近的一個x',在x和theta固定的情況下,使輸出的答案越錯誤。 兩類constraint:     加了gradient算出的雜訊效果最明顯: FGSM: 採用最快的梯度,一次梯度下降得到結果: 主要就是設置一個很大的learning rate使一
相關文章
相關標籤/搜索