科技向來是一把雙刃劍,它在推動人類文明進步的同時,有時也會給人類帶來災難。人工智能亦是如此,人工智能技術被好人掌控時能澤被蒼生,若是被壞人控制則有可能禍患無窮。先來看兩個例子:算法
一、 人工智能用於做惡的案例:Deepfake合成音頻應用於詐騙數據庫
最近,據美國的科技媒體報道說,網絡詐騙犯正在利用Deepfake技術仿製公司高管的語音合成語音郵件發到公司員工,針對大型公司進行經濟詐騙,敲詐者將一份模仿公司CEO語音的Deepfake音頻以郵件方式前不久就發送給了一家公司的員工,要求員工當即提供幫助,以完成緊急商業交易。但值得慶幸的是此次詐騙並無成功。員工在收到語音郵件以後認爲其可疑,而且將其登記到了公司的法律部門,但在此以前已經有不少利用Deepfake進行詐騙的案例了。安全
好比:2019年的9月,犯罪分子使用語音克隆軟件對英國一家能源公司的高管的聲音進行模仿。這家公司的執行董事在接聽詐騙電話以後,堅決果斷的就把24萬美圓匯入了一個海外帳戶。而前不久網絡安全公司賽門鐵克報告了三起Deepfake音頻詐騙案例,犯罪分子經過電話會議、社交媒體TED的演講,得到了公司高管的音頻,而後用機器學習技術複製了高管的聲音,致電財務部門要求緊急匯款。網絡
不過Deepfake音頻創做者爲了建立更逼真的音頻一般須要克服以下幾個因素,好比捕獲幾乎沒有背景噪音的高質量音頻,好比大領導的演講,在不須要回電的狀況下,對音頻進行傳送,由於對話起來容易露餡,平時都是以留言的形式避免與音頻接收者實時交流,也許不過腦子的人聽到領導的聲音一緊張,就會像上面那幾個案例同樣,乖乖打錢了。而更可怕的是將來若是Deepfake音頻加視頻合成更加成熟,騙子的成功率就可能大大提升,咱們可要提升警戒了。如何才能提升警戒呢?說到底可能仍是要藉助科技的力量。機器學習
二、人工智能向善的案例:Fawkes給照片「隱身衣」,讓人臉識別系統失靈ide
衆所周知,社交媒體平臺有可能泄露咱們的我的隱私,有時候一張自拍照所包含的信息就有可能把本身給「出賣」了,由於面部識別技術能夠抓取到不少信息。也就是說只要能獲取照片數據,面部識別技術就能夠輕鬆的獲取我的的敏感信息。此前,美國的面部識別公司就建立了一個大概有30億張圖像的超大容量人臉數據庫,而這些數據都是從Facebook 、YouTube甚至國內的微博上抓取過來的,而這些無處不在的面部識別技術對咱們的隱私構成了不小的威脅。學習
在芝加哥大學有個團隊就提出了一種新的解決思路,能夠爲咱們的照片添加一層隱身衣,這就是他們推出的軟件——Fawkes。這款軟件已經讓曠視、微軟、亞馬遜等公司的面部識別算法失靈了,而這款軟件的研發者是一位來自北京的年僅23歲的小夥子。一張普通電子照片在用Fawkes給原圖稍加處理以後,就能夠屏蔽任何人臉識別算法。可是咱們人眼幾乎沒法察覺到任何的細節,也就是說Fawkes軟件對人臉圖像進行了像素級的細微修改,讓肉眼沒法察覺,可是AI圖像識別的算法就能看得清清楚楚,可是其識別結果會高度失真,把圖片當作徹底不同的人。之後通過Fawkes快速處理的圖片,能夠在不改變原貌的基礎上,隨意的分享在各大社交媒體平臺,也不擔憂被其餘的算法公司抓取用做非法途徑。這是我的工智能技術用於保護我的隱私方面的成功嘗試。人工智能
該研究團隊表示,他們但願Fawkes可以被普遍的部署和使用,以下降我的隱私泄露的風險。目前,用戶可在該項目官網無償使用Fawkes。技術論文已經在網上開放(論文地址:https://www.shawnshan.com/files/publication/fawkes.pdf)。同時,研究團隊已開發Windows和Mac版本的軟件,並但願社交媒體公司在其平臺直接部署該軟件。不過略有惋惜的是,咱們以前已經泄露在網上的照片,怕是沒機會再修改了。視頻
三、 關於人工智能應用的幾點感想blog
①人類一方面在利用人工智能技術爲自身的工做與生活帶來便利和效率,另外一方面又在不停的與人工智能技術帶來的負面影響進行抗爭;
②人工智能技術的進步已經在挑戰人類感官的靈敏度了,眼見不必定爲實,聲音不必定可靠,甚至你看到的人臉照片均可能是被AI換臉技術處理過的。久而久之,人們對人工智能產生的將會有怨恨和恐懼;
③在享受人工智能技術發展帶來的各類福祉的同時,人工智能所產生的倫理問題也日益突出,正成爲全社會關注的焦點。人性是不完美的,一旦這些人工智能技術被不法分子利用,那麼對社會而言將會是一場災難。如何規避人工智能帶來的倫理問題,已經成爲人工智能發展沒法迴避的重要問題。
人工智能本沒有善與惡之分別,關鍵在於掌控它的人如何應用它。請銘記:人工智能技術是沒有罪的,可是,請正確對使用人工智能技術。技術無罪,善惡之道,存乎一心。
【編輯推薦】
【責任編輯:華軒 TEL:(010)68476606】