本文由 「AI前線」原創,原文連接: 宅男福音deepfakes開源了
策劃編輯|Tina
做者| MMA GREY ELLIS
編譯 | Debra,Vincent
編輯|Emily
AI 前線導讀:」互聯網每每會產生一些很差的副產品,好比把 Facebook 推上風口浪尖的假新聞,以及最近很火的 AI 虛假色情視頻。有人用機器學習 AI 技術把明星的臉部與色情視頻表演者的臉部進行交換,幾乎能夠達到以假亂真的效果,好比演員 Daisy Ridley、 Gal Gadot、Scarlett Johansson 和 Taylor Swift 等都是這種技術的早期受害者。如今,居然又有人作成了 app,GitHub 上也已經被開源。這大大下降了這項技術的門檻,無疑會讓這些虛假的視頻傳播更加普遍。然而,當普通人的臉部圖像被用於虛假色情視頻時,法律並不能向受害者伸出援手,這是爲何呢?」python
GitHub 開源工具 deepfakesgit
想必你還記得「神奇女俠」蓋爾·加朵的臉被貼在了一個愛情動做電影女主的臉上,令無數宅男神往的女神就這麼「脫了」,當時新聞一出在網絡上引發了不小的轟動。據瞭解,這家電影公司採用的就是這個名爲 deepfake 的深度學習技術,這款工具原本的用途是用來識別和交換圖片、視頻中人物臉部圖像的工具 (靈感源自 Reddit 上超級火爆的不可描述社區 deepfakes),可是就有這麼一羣不安分的人,非要把一項本該獲得很好利用的技術用在某些迷之領域,╮(╯▽╰)╭爲了拍片兒、看片兒煞費苦心,也真是難爲他們了。程序員
雖然以前有一些 app 能製做這樣的視頻,可是如今程序員也能夠在家研究一下代碼,本身動手,豐衣足食,得到更加「完美」的體驗了(此處打馬賽克)。具體該怎麼操做呢?如下是一份動手指南:github
概覽算法
該項目有多個入口,你須要作的事:docker
提取數據庫
運行您文件夾中的 python faceswap.py extract。這一步將把圖像從 src 文件放到提取文件夾中。bash
訓練網絡
運行您安裝文件中的 python faceswap.py 訓練。這一步訓練模型將兩組照片保存到模型文件夾內。app
轉換
運行您文件中的 python faceswap.py 轉換。這一步將把原始文件夾中的照片應用到修改後的文件夾中。
通常注意事項:
全部提到的腳本都帶有 -h / - 幫助選項,以及能夠接收的庫。你很聰明,能夠弄清楚它的工做原理,對嗎?注意:如今視頻尚未開始轉換。您可使用 MJPG 將視頻轉換爲照片,處理圖像並將圖像轉換回視頻。
訓練數據
這是整個程序包,包含訓練圖像和已通過訓練的模型(〜300MB):
如何建立和運行此程序
建立
fork 設置庫,設置本身的環境,而後用 Dockerfile 啓動。或者你能夠 Dockerfiles 中的依賴關係手動進行設置。可查看
../blob/master/INSTALL.md 和../blob/master/USAGE.md
瞭解如何配置 virtualenv 和運行該程序的基本信息。
爲了達到最佳性能,您還須要一個具備 CUDA 支持的現代 GPU。
注意:
Docker
若是您更喜歡使用 Docker,則可使用如下方法啓動程序:
建立:docker build -t deepfakes 。
運行:
docker run --rm --name deepfakes -v [src_folder]:/ srv -it deepfakes bash。bash
能夠用命令行替換。請注意,Dockerfile 並不能知足全部的需求,因此它可能致使在一些 python 3 命令失敗。另外請注意,它沒有 GUI 輸出,因此 train.py 可能會發生顯示圖像失敗的狀況。您能夠對此進行註釋,或將其另存爲文件。
如何做貢獻
對生成模型感興趣的人
歡迎到「faceswap-model」來討論 / 建議 / 提交當前算法的替代方案。
開發者
非開發高級用戶
終端用戶
反對者
這是一個什麼樣的數據庫?
這是一個爲活躍用戶開放的數據庫。
爲何是這個庫?
joshua-wu 庫彷佛不太活躍。像網址前缺乏 http:// 這個問題到如今都沒解決。
爲何叫作「deepfakes」,而不是 /u/deepfakes?
關於機器學習
計算機如何識別 / 塑造一張臉?機器學習工做原理是什麼?什麼是神經網絡?
這個問題的答案很複雜。如下視頻能夠幫你更好地理解機器學習:
法律幫不了假視頻受害者?
有人會問,這樣使用別人的圖像作這種視頻和圖像不會被人告嗎?然而事實上,法律可能還真制裁不了這種行爲。這是爲何呢?
據邁阿密大學法學院教授 Mary Anne Franks 說,她以前所作的推進性犯罪定性的工做可能幫不了 AI 色情視頻的受害者。Franks 制定了美國現有的大部分關於將非自願色情定爲刑事犯罪的法律。
Franks 和立法者並非沒有考慮到對其餘人的圖像進行操做的不合理之處,而是目前全部立法的前提是非自願色情內容侵犯了受害者的隱私。但用 AI 技術進行的面部圖像交換並不構成侵犯隱私,由於不一樣於裸體照片等,這些視頻素材自己就是假的。你不能由於有人曝光了本不是你生活中的私密就起訴某人。
並且,這些視頻的創做者很狡猾,他們會用到一些處理技巧以逃避法律的追究。
這樣看起來好像法律沒法向受害者伸出援手,那就沒有解決的辦法了嗎?答案是否認的。好比名人明星能夠非法使用肖像權得到商業利益的途徑提起訴訟。但對於普通人來講,最好仍是經過名譽損毀法。當 Franks 意識到懲罰色情的法律不包括關於虛假圖像的條文時,她建議立法者修更名譽損毀法來解決這個問題,但目前尚未取得太大的進展。
從長期來看,解決這個問題最可行的方法是從技術這個突破口開始,即應用程序。美國的《聯邦貿易委員會法》禁止「商業活動中,或對商業活動產生影響的不正當或欺騙性行爲」。「若是咱們可以在這點上動一點心思,應用程序開發者恐怕就得擔點責任了。這個應用程序正在將某我的的數據轉換爲其餘人的數據。「(Google 曾在 2013 年違反了相同的規定。)
另外,企業組織也能夠貢獻一些力量,好比谷歌曾表示其將會把非自願色情搜索結果與受害者的名字隔離。
一樣地,在線平臺也能夠加大打擊力度,至少能夠將假視頻打上虛假的標籤。另外,「用 AI 來檢測這些通過編輯處理的色情視頻也是小事一樁,」馬里蘭大學計算機科學家 Jen Golbeck 表示。
由此看來,驗證視頻的真實性(或缺少視頻)只會隨着這項技術的普及而變得更加劇要。
反響
這篇文章在 reddit 上也引發了網友的熱烈討論,不少人關注的是此技術引發的道德和法律方面的問題,但也有很多人相信這項技術背後潛在價值,但願這門技術不會被負面的消息影響。如下是選取的一部分網友的留言,從中能夠大概反映出兩個對立的觀點:
網友 1: 色情門只是表面問題。這項具備開創性的技術正處於得到突破的邊緣,它的發展速度將會比咱們想象的快得多,請多想一想將來的可能性和它將帶來的成果吧。謝謝您嘞。
回覆:之後一我的就能夠演一部戲,明星們能夠不演戲了,他們可讓 Joe schmoe 來演,而後把明星的臉貼上去就好了。
網友 2: 您以爲會有啥突破呢?
回覆 1:就像假新聞能夠傳播僞造的錄音同樣,想象一下假視頻裏希拉里開玩笑說從投資銀行拿了賄賂,或者普京認可她的郵件是他偷的。這很難證實是真是假啊。
回覆 2: 對的,換臉算法真的頗有趣,我認爲和最初的圖片轉換技術同樣,人們之後會開發出更多追蹤此類信息的技術。
網友 3: 將來幾年,法庭上全部的視頻和音頻資料都將變得不可信。至少在人們的內心會永遠對事情的真相存疑。
網友 4;我認爲這是將來 AI 會如何影響咱們生活的一個很好的例子。也許將來 AI 的角色並非終結者那樣的機器人,而是技術的突破會對人類道德和社會結構產生深入的影響。
網友 5: 我看大家不少人關注的是道德和法律方面的影響,難道只有我一我的以爲很酷嗎?這項技術真是太棒了,無縫的修改技術簡直完美,這纔是最重要的不是嗎?
原文連接:
更多幹貨內容,可關注AI前線,ID:ai-front,後臺回覆「AI」、「TF」、「大數據」可得到《AI前線》系列PDF迷你書和技能圖譜。