AI平臺攻防案例及原理簡單彙總

可能的三種類型的攻防: 1、對抗樣本 2、ai平臺外部部件漏洞 3、ai平臺內部漏洞   對抗樣本: 屬於利用ai訓練的基本原理產生的一種根本性的攻擊方法。 主要原理是對訓練模型添加適當的干擾,或者是故意向訓練集中添加標籤錯誤的數據,擾動訓練出來的模型,使得模型不能正確識別某些物。主要針對分類模型。 案例可以參考:Kaggle首席技術官發佈——(Kaggle)NIPS 2017對抗學習挑戰賽起步指
相關文章
相關標籤/搜索