全文共2469字,預計學習時長5分鐘算法
不少人都據說谷歌因爲與美國軍方的關係而面臨身份危機。簡而言之,在員工抗議愈演愈烈後,谷歌決定再也不續簽「Maven項目」,不向美國國防部提供AI能力支持。微信
這是谷歌的問題,這家「善良」的公司目前正與亞馬遜和微軟競爭利潤豐厚的雲服務和人工智能政府合同,價值約100億美圓。拒絕這類工做將抑制其巨大的商業潛力。近期,亞馬遜已在宣傳其圖像識別軟件「國防識別」,微軟也標榜其雲端技術已用於處理美國軍方各部門的機密信息。然而,谷歌的公司文化意味着,簽定大型國防活動會使得AI專家從谷歌離職。框架
儘管Manve項目宣稱「無害」、非進攻、非武器、非致命,只用於識別交通工具以提升無人機瞄準的精確度,但它的出現引起了一些嚴重的問題,如將戰場轉移到數據中心,以及難以將民用技術從實際戰用中分離出來。儘管谷歌工做人員試圖將這些問題拋之腦後,但他們知道將AI分析圖像用於世界各地的反叛亂和反恐打擊,多少會有一些受害者。機器學習
世界前100所世界頂級AI公司都很擔心這些問題(包括潛在的James Bond villain Elon Musk)。去年夏天,它們給聯合國寫了一封公開信。信中警告道,儘管研發自動武器系統的初衷是好的,但在無人工操做的狀況下,識別目標並進行攻擊,存在被濫用的可能。儘管終結者和徹底致命的自主權離現實很遙遠,但該領域仍有許多使人擔心的問題。工具
這並不奇怪,自定向武器的研發引發了繼火藥和原子彈後的第三次武器革命。所以,美國正在進行AI軍備競賽。軍事專家稱,中、歐已在國防AI方面投入巨資,俄羅斯也在朝着進攻性思惟武器化AI發展。去年,普京曾表示「AI是俄羅斯的將來,也是全人類的將來…這一領域的領導者將成爲世界的統治者。」這種說法頗有煽動性,但其(部分)是正確的。在AI領域先發制人的國家在軍事、經濟和科技上佔據的優點幾乎無可限量。學習
這是他們下的最大賭注。爲了弄明白這一點,就須要回到軍事戰略的基礎上來。測試
1. MAD的終結大數據
冷戰結束後,軍事聯合體的基礎已成爲相互保證毀滅的原則。這一律念意味着,任何攻擊者若是未能在首次攻擊中徹底摧毀其目標,則將受到報復。所以,各國都試圖先發制人以得到優點,而且若是看到互相保證毀滅任一方的平衡開始削弱,就可能會在技術層面上利用這一優點。人工智能
這就是人工智能的用武之地:經過大規模監控和對模式以及潛在目標的智能識別,先發制人者可在不承擔任何後果的狀況下邁出第一步。正是這種勝者爲王的信念促使了軍備競賽,在很大程度上破壞了世界秩序,由於沒有退路的弱勢國家面對非MAD時,很難保持理智,更可能參與所謂的先發制人的戰爭,以阻止對手得到諸如強大軍事AI的優點。3d
自動武器並不須要經過殺戮或製造災難性戰爭來破壞穩定:輕輕釦動扳機就能夠了。
2. 患得患失
面對全新軍事科技容易患得患失。一旦取得了優點,這個國家如何代表MAD將在其清單上呢?不用回顧歷史就能知曉,一旦製造出武器化AI,其它國家會有何舉動。美國發明瞭核彈,就火燒眉毛要:A)測試。B)使這十億美圓的投資物有所值(不必浪費錢)。C)告訴俄羅斯,他們擁有一款人人畏懼的新型武器,會改變接下來十年的國家平衡。不論是出於政治仍是戰略緣由,研發了致命AI的國家都會想要耀武揚威,這是人的本性。
3. 戰爭的非人性化
傾向自動化武器的人有一論點:部署機器人系統比「傳統戰爭」更有吸引力。由於和人類相比,機器人更少犯錯、疲勞或情緒激動,因此犧牲也就更少了。不管是在戰爭時期仍是和平時期,正是悲傷和憤怒等情緒的存在使咱們稱之爲人。仁慈是人心裏深處相當重要的一部分,然而自主化武器系統的出現則抹殺掉了對戰爭受害者的仁慈之心。亞歷山大·索爾仁尼琴說過:「善惡的分界並不禁國家、階級、政黨劃分,而是刻在每一個人心中。」
此外,發達國家所受的傷亡會少一些,但那些受超級大國鼓動而發生代理人戰爭的國家呢?大多數國家都沒有擁有機器人公司的奢侈條件,就只能像上一個世紀那樣,承受戰爭的人力成本。那些沒法在戰場上進行反擊的國家,頗有可能衍生出國際恐怖主義,由於這是傷害對手的惟一途徑。
4. 失控
假設所說的新技術是指AI、機器學習、機器人和大數據分析的混合體,能製造具備多種自主化程度的系統和武器,低到在人類的監督下工做,高到能自主「思考」。將來戰場上,最具決定性的因素就是雙方算法的質量和快到人類沒法跟上的戰鬥速度(這是筆者最愛的阿西莫夫短篇小說的前提)。
相關風險是過於熱切、經驗不足的玩家可能會失去對其軍事能力的控制(參考俄羅斯)。人工智能的燃料是數據。若是給軍用機器人輸入錯誤的數據,它可能將射程內的全部人都識別爲潛在目標。
5 . 愚蠢的機器人
專家不懼怕聰明的機器人,但對愚蠢的機器人充滿恐懼,由於它們很容易失控。對複雜系統的研究代表,行爲的產生比單個行爲的總和更加不可預測。所以,咱們不太可能徹底理解或控制某些類型的機器人,對於有槍的機器人就更應該增強監督。
當前面臨的主要問題不是上述問題,而是無知的大衆將該問題理解爲「終結者大戰人類」,致使了科幻小說式的敘事,而忽略了在法律、政策和商業領域亟待解決的很是現實和艱鉅的挑戰。正如谷歌發佈的一套枯燥的AI道德實施原則同樣,沒法徹底相信公司可以作出正確的選擇。所以,須要相關機構和政府構建一個務實、道德和負責任的國際化框架,以創建一套公認的準則。
自動化防護系統可以基於對威脅的分析作出決策,如來襲導彈的形狀、大小、速度和軌跡,並比人類更快地作出反應。然而,歸根結底,減輕殺手機器人潛在傷害的「開關」就在每分每秒每一個人所作的或大或小的決定中。
從來如此。
推薦閱讀專題
留言 點贊 關注
咱們一塊兒分享AI學習與發展的乾貨
歡迎關注全平臺AI垂類自媒體 「讀芯術」
(添加小編微信:dxsxbb,加入讀者圈,一塊兒討論最新鮮的人工智能科技哦~)