你知道腦機接口中的「後門「攻擊嗎?它真的有可能在現實中實現

導讀 機器學習在腦機接口中的成功應用,使腦機接口得到了快速的發展。然而,對抗攻擊的發現讓我們不得不重新思考機器學習模型的安全性。這些潛在的危險性給基於機器學習的腦機接口的實際應用提出了不可逃避的難題。華中科技大學伍冬睿教授研究團隊在最新的工作中提出了實際可實現的污染攻擊方法。通過在訓練樣本中加入少量的污染樣本,這些污染樣本能夠在模型訓練後在模型內創建一個"後門",具有後門鑰匙的測試樣本將被分類爲攻
相關文章
相關標籤/搜索