Facebook 首屆尋找 AI 操縱視頻算法挑戰賽落幕,第一名因數據問題被取消成績

Deepfake.jpeg

技術編輯:宗恩丨發自 SiFou Office算法

SegmentFault 思否報道丨公衆號:SegmentFaultsegmentfault


來自外媒消息 Facebook 公佈了第一屆 Deepfake 檢測挑戰賽的結果 ,這是一場尋找可以發現人工智能操縱視頻的算法的公開競賽。雖然結果顯示經過算法找到人工智能操縱的視頻這件事頗有但願,但距離真正應用還有一段距離。測試

Facebook 還表示,競賽中獲勝的算法可以發現「具備挑戰性的真實示例」深層仿製品,平均準確率爲65.18%。來自 Facebook 的首席技術官 Mike Schroepfer 也表示:「他對挑戰賽的結果很滿意,這將爲研究人員創建一個基準,並指導他們將來的工做。」人工智能

在即將到來的 2020 年美國總統大選上, Deepfakes 可能會被用於「政治誤導」,這些尋找人工智能操縱視頻的算法也將迎來黃金時刻。spa


約有 2114 名參賽者向比賽提交了 35000 多個檢測算法。測試他們從約 10 萬個短片的數據集中識別深層假視頻的能力。Facebook 僱傭了 3000 多名演員來製做在天然環境中進行對話視頻。其中有些片斷是經過人工智能操縱讓其餘演員的臉貼到他們的視頻上。視頻

Deepfake

↑挑戰中的實例blog

研究人員被容許訪用這些數據來訓練他們的算法,當對這些材料進行測試時,準確率能夠高達 82.56%。然而,當一樣的算法對由未見過的鏡頭組成的 「黑盒] 數據集進行測試時,它們的表現要差得多,得分最好的模型的準確率爲65.18%。文檔

Schroepfer 表示本次挑戰賽的獲勝算法將做爲開源代碼發佈,以幫助其餘研究人員,但Facebook 也表示,將對本身的檢測技術保密,以防止其被反向工程。it

第一名被優點方案被取消成績惹爭議

在這場比賽中,本來排名第一的團隊由於數據的緣由,優點方案被取消成績,最終他們的第二方案得到了第七名。class

簡單來講這個團隊使用了非比賽官方的視頻用於判斷算法的準確性,在與官方的溝通中團隊得知他們違法了「獲勝做品提交文檔」的規定,團隊被 Facebook 官方要求提供出如今外部數據集中的每一個人的附加許可。

這顯然是不可能的,這些數據來自公共數據集,團隊沒法出示其中每個人的具體書面許可,也沒法識別這些人。最終通過多方溝通,因爲團隊沒有故意破壞任何規則,所以會保留未使用任何外部數據的提交內容,而僅取消獲勝的提交內容的資格。

今天,該團隊對此事發表了一份聲明,完整聲明以下:

致 Kaggle、Facebook 託管團隊和各位參賽者們:

首先,咱們要向 Kaggle 和 Facebook 託管團隊表示感謝。感謝他們建立了這一數據集以及舉辦本次競賽,並在此向全部最終獲獎者表示祝賀。

咱們想在這裏進一步解釋一下,關於咱們的獲勝解決方案無效的問題。以及咱們第二方案在 LB 上的狀況變更。

爲了應對 Private LB 的激烈競爭,咱們準備了兩個解決方案,最終分別得到 0.42320 和 0.44531 的 Private LB 分數。對於在 Public LB 上得分更高的 0.44531 方案,咱們僅使用了競賽數據和 12 個模型的未加權均值:這是咱們在 LB 上保持第七名位置的方案。對於咱們最初的獲獎方案(0.42320),咱們將使用競賽數據訓練的 6 個模型和使用一些外部數據訓練的 9 個模型混合在了一塊兒。

AI 是把雙刃劍

在這個 AI 技術高速發展的時代,AI 技術不只能讓人們過的更好,也能作一些「惡事」。

Deepfake 就是這樣一個典型例子,因爲能夠改變視頻中的人臉,這項技術能夠很好的幫助影視製做團隊製做視頻,但也常被用於製做「假視頻」或者「色情視頻」當中,還有更嚴重的它甚至能經過改變視頻操縱「政治導向」,因此本次 Facebook 舉辦的尋找人工智能操縱視頻發現算法的比賽很是有意義。

雖然比賽出了一些問題,第一名由於數據問題被取消名次,但緣由多是由於第一屆沒有前車可鑑,許多規則尚不明確,Facebook 與參賽者也沒有很好的溝通所致使。固然要求參賽隊伍提交額外數據集裏出現人物每一個人肖像的受權許但是顯示不合理的,也但願 Facebook 能夠在從此的比賽中制定更加合理的規則。

segmentfault 思否

相關文章
相關標籤/搜索