版本:0.1算法
這篇文章不是爲了給出答案(也給不出答案)或者猜測,而是但願總結一下各類影響因素。隨着技術水平和認知的發展,人們會作出更準確的預測。從主觀上,我更願意相信強人工智能不會滅掉人類,這樣我就能夠問心無愧的繼續研究了。:)跨域
首先,這裏說的是「消滅」人類,不是和人的個體衝突,而是對整我的類的威脅。這是一個很大的問題,除了須要研究各類因素以外,還須要對整個過程進行研究。也許最終強人工智能會和人類很好的相處,但中間的某個階段就把人類消滅了。安全
從研究將來的角度來看,科幻小說和電影是走到前面的,給咱們提供了巨大的想象空間。在下面的推理和分析中也很容易找到相似場景和觀點的科幻做品。好比,《三體》對動機和能力方面都涉及了(看起來低效的生物體纔是戰爭的根源,強人工智能只是工具)。《終結者》系列,基本沒涉及到動機,比較強調人類的能力(除了運氣,實在沒看出來人怎麼贏)。還有《超驗黑客》和《機器紀元》(不喜歡劇透的直接跳到下一段)從動機方面講爲何強人工智能不消滅人類。好比:從人類上傳的人工智能仍是爲人類考慮的、強人工智能不屑於消滅人類。架構
強人工智能是否會消滅人類的問題,要從動機和能力兩方面來討論。動機是強人工智能爲何要消滅人類。能力是強人工智能是否具有消滅人類的能力。估計大部分人都相信,最終強人工智能的能力會超過人類,有消滅人類的能力,因此下文也主要從動機方面來討論。工具
特異功能人工智能
這一段是從強人工智能的能力來分析的。所謂特異功能,是人類沒有的能力。假設強人工智能生存於非生物體中,如互聯網、實體機器人、或者電子生物混合體,就可以跨域生物體的限制。好比高速的通信(人的語言通訊速度大概也就10字節每秒),高能源儲備(人一天吃好幾頓飯,幾天不吃就不能動了),複製、修復成本低(人不能複製,治病成本高),極端條件下生存能力強(人類須要空氣,對氣壓,溫度適應範圍都小),更廣的通信頻率(人只能響應聽力的機械,視力範圍的電磁頻率),進化快(人類須要數萬年以上纔能有顯著的變化)等等。看上去是否是人類從配置上就完敗了?也沒那麼慘,人類也有本身的優點,至少如今人類的意識仍是黑盒的(雖然也有被黑、被洗腦的狀況)、人口基數巨大、不會被強電磁輻射直接消滅等。spa
智能水平設計
這裏說的智力水平是綜合水平,不考慮某一方面的強弱。進程
若是強人工智能的智力水平至關於普通動物,且人類和強人工智能之間存在直接的資源衝突,如空間、能源等,則有可能直接產生衝突。這種狀況下其對人類的衝擊,取決於強人工智能是否具備獨立的複製能力或者很強的生存能力。資源
若是強人工智能的智力水平至關於人類,則能夠將其考慮爲獨立的人。若是和人類有資源衝突,也許會採用比較溫和的方式進行交換或爭奪。但若是其成爲了極端分子,對人類的衝擊會更大。
若是強人工智能的智力高於人類,咱們可能已經沒法預測其行爲和傾向了。由於他的智力高於人類,對世界的認識、能力最終都會高於人類,咱們沒法預測其是否會產生消滅人類的意願。
除了智力水平,還可從另外一個方向來看。即強人工智能是否有自我意識,是否受人類控制。
假設強人工智能雖然可以解決不少問題了,但並無自我意識,其仍然是人類所控制的。因此,經過阿西莫夫的機器人三定律,就能避免其傷害人類。但這個的前提是人們願意將機器人三定律設定進強人工智能。考慮到現今社會的恐怖主義勢力不可忽視,也許會有人制造出專門攻擊人的強人工智能。這和其它武器相似,但考慮到強人工智能的特異功能等,其破壞性是遠遠大於普通武器的。
若是強人工智能擁有了獨立的自我意識和價值觀,問題就會更復雜了。
數量
一個、多個仍是大量?也許這不是一個好問題。從人類的角度來看,數量很是清楚,一我的就是一我的,不會有異議。但強人工智能因爲其連通性很是強,形態自由,也許沒法數清某個範圍內到底有幾個強人工智能。爲了討論的方便,假設數量是可以肯定的。
假設只有一個強人工智能的實體。這個假設是由於要麼其資源消耗至關大,只能造出一個;要麼是由於其連通性強,最終全部強人工智能都會合成一個。因此,其對資源的整合能力會讓其能力很是強。且做爲一個實體,可認爲其能作出惟一決定。若它不考慮人類的安全,則可能會產生很大的威脅。
假設有多個強人工智能,它們間有對立的狀況,且較平衡。那人類也能夠與其產生比較穩定的關係。假設有很是大量的強人工智能,可能就和如今的人類社會沒有什麼分別了,每一個強人工智能對於整個智能社會的影響也會變得有限。也能夠和人類產生比較穩定的關係。這裏的穩定關係不必定是對人類有利的關係,也許是人類控制強人工智能,也許是其對人類的奴役……
能耗水平
《奇點》是一本不錯的書,探討了理論上的信息和物質之間的比例,認爲每一個粒子極限上能夠表達1bit的信息。從另外一個方面,人類大腦的結構來看。大腦大概有120億個灰質神經元細胞,每一個細胞約有數百到數萬個連接。這還不包括數倍於這個數量的支持其的其它神經細胞。因爲如今的計算架構和指令集不是按照神經元這樣大規模並行計算所設計的,因此每一步神經元操做都須要數百步計算。以如今的計算水平來看,一我的腦須要數十萬甚至百萬臺普通計算機來模擬。這裏尚未考慮這麼多計算機之間的通信的問題和其它難題。
考慮到人腦的效率並不必定高,且很大一部分用來解決輸入輸出。隨着計算水平和算法的提升,其能耗會逐漸下降。因此,實際須要的計算資源會逐步減小。這裏說的計算資源也創建在其它種類的資源上,好比能源、空間、礦產,都是計算資源的原材料。在這個發展過程當中,強人工智能若是想要提升本身的智能水平,必然要想辦法獲取更多的計算資源,從而與人類產生計算資源的爭奪。若是有若干個強人工智能存在,它們之間也許會產生爭奪。最終也許強人工智能可以利用整個宇宙的物質和能量,從而不屑於在地球與人類爭奪。但在強人工智能可以發掘出更多的計算資源以前,人類可能已經被消滅了。
從保守的預測來看,若是人類不能跨越計算和能源的一些限制,也許強人工智能的能力就會一直受限,從而始終不能構成威脅。
智能來源
初期的強人工智能應該是從無到有培養出來的,其雖然有人類認知的印記,但也有其自我發展出來的東西。最終,人類可能可以將本身的智能上傳到強人工智能的載體中。不管它是否是人的意識,它可能仍是會認爲本身屬於人類的一部分。假設它的邏輯思惟基本不發生變化,其選擇可能更像人類。在大部分狀況下,不會對人類產生威脅。若是強人工智能還有機會被下載到生物體裏,和人類的關係可能會更加融洽。因此,強人工智能和人類的關係也可能受智能來源的影響。
人類願意和其餘高等智能創建什麼樣的關係
這裏的其餘高等智能也包括外星人,但這裏只討論強人工智能。人類做爲強資源依賴型的物種(不能休眠、繁衍慢、慾望強),天生就對資源有不安全感,這可能也是人類大部分爭鬥的緣由。並且人類做爲地球生態系統的長期霸主,也有很強的獨佔的慣性。也許強人工智能和人類的爭鬥也是人類挑起的,強人工智能只是反擊。從而人類的不安全感也傳給了其它高等智能。
在強人工智能的能力近似於或超過人時,人類可否最終尊重並接受這個現實,很大程度上也決定了人類的命運。
這裏不得不將機器人三定律做爲反例舉出,其自己的出現也沒有把強人工智能放到和人等價的位置上。不過這個問題自己也很複雜,強人工智能是人類一手創造出來的,而目的是爲人類服務的。但最終的結果是人類可能不得不出讓資源給強人工智能,且任其自由發展。
綜上所述,已經有不少變量能夠影響強人工智能和人類的關係了,我相信還有不少因素沒有列出來。在強人工智能沒有產生以前,每一個因素,及其發展過程都不能被忽略。因爲人類的好奇等各方面緣由,即便人工智能對人類有巨大的威脅,仍是會努力的將它實現出來。這對於人類自己來講,不必定是有利的,但從宇宙的發展來看,人類可能只是逆熵進程中的一步。其也是偉大的一步,從碳基智能到硅基智能,再到量子智能。這是智能不斷的超越本身的認知,不斷的理解本身的生存空間的過程。再後面會發生什麼,就不是我等碳基生命可以預測的了……