SFKP • 計算機百科丨強人工智能的覺醒與人類的將來

clipboard.png

在昨天的推文中,我和你們分享了英特爾的一款神經擬態研究芯片 Loihi,這款芯片之因此厲害是由於具有了必定的「嗅覺」能力,能夠根據生物信號來識別「嗅」到的氣味,這屬於強人工智能必備的能力之一,也讓咱們離複製大腦更進了一步。算法

但由於篇幅有限,文章中對人工智能覺醒的引伸,也就是人工智能出現意識的狀況只作了一個簡單的分析,但你們彷佛對這個老生常談的問題依舊很感興趣,尤爲是經歷了 2020 年這個艱難的開局,讓咱們進一步意識到了人的脆弱和無力。網絡

今天,咱們就來詳細的討論一下具有意識的強人工智能到底發展到了什麼程度,到底會有哪些風險,咱們人類能不能和強人工智能共存?架構

強人工智能的概念與定義

clipboard.png

1985 年 9 月 26 日,諾貝爾物理學獎得主,也被稱爲愛因斯坦以後最睿智的理論物理學家,第一位提出納米概念的人 —— 理查德·費曼(Richard Feynman)在一次講座中第一次提出了強人工智能的概念。機器學習

通常而言,弱人工智能不須要具備人類完整的認知能力,甚至是徹底不具備人類所擁有的感官認知能力,只要設計得看起來像有智慧就能夠了。工具

所以,過去咱們所認知到的人工智能大可能是弱人工智能,而且人們一度以爲強人工智能是不可能實現的。學習

強人工智能也稱通用人工智能(artificial general intelligence,AGI),通常須要具有執行智慧行爲的能力。強人工智能一般把人工智能和意識、感性、知識和自覺等人類的特徵互相連結。測試

那麼,這樣的具有意識的強人工智能可以真的實現?優化

目前來講,模擬出簡單的一個生物頭腦已經不是不可能的事,一如化學技術累積發展下,如今許多研發藥品已經使用計算機模型來推演藥物效果,以減小受試動物的痛苦等,或者就像昨天的文章中所說,英特爾已經讓芯片有了「嗅覺」。搜索引擎

這得益於電腦技術的發展。編碼

從前在使用電腦語言的時代,原先電腦被認爲不可能具有自我解決能力,電腦只是看起來聰明,實質上仍是按照設計好的規則行事,並不能應付突如其來的情況,仍舊會犯下錯誤。

而近年來從電腦在摩爾定律與神經科學研究的協助下,透過在電腦上對生物神經元系統複雜的電位衝動模擬上取得了明顯的突破,令人工智能越過發展中的坎 —— 神經處理機制的發現。

clipboard.png

由於生物的獨特是在於刺激與反應下會強化其回饋做用,這類可以透過試錯學習經驗並總結,以迴應各類刺激的系統(例如重複玩一款遊戲便能熟能生巧),還能從每種回饋中又觸發其餘迴路來升級改進思考結構,作出更復雜的精細反應(例如在對話中選擇誠實、說謊、漠然以後考慮其不一樣行爲的後果等),這樣的仿生領域已經獲得長足的進步,令人腦與人工智能的區別逐漸變得模糊。

可是,在機器是否存在有自主「思想」上的議題,將還會一直是人們爭辯的對象,特別是在智能理性與心理感性部分要如何區別、統合,更須要進一步引導其具備人性,來爲人類提供最佳解,目前這些方法都尚未探索出來。

在一些可以自動推理出最佳解的工具已經出現,如 Google 旗下的 DeepMind 在此領域進展最多,成功開發出了初級的通用思考機器,他們將其類人腦神經程式稱「人工通用智慧技術」,而「通用」一詞就表明者這是一個能夠透過自主「進化發展」的通用智慧。

強人工智能的標準

clipboard.png

人們提出過不少人工智能的定義(例如可以經過圖靈測試),可是沒有一個定義可以獲得全部人的認同然而,人工智能的研究者們廣泛贊成,如下特質是一個智能所必需要擁有的:

  • 自動推理,使用一些策略來解決問題,在不肯定性的環境中做出決策;
  • 知識表示,包括常識知識庫;
  • 自動規劃;
  • 自主學習、創新;
  • 使用天然語言進行溝通;
  • 以及,整合以上這些手段來達到同一個的目標;

還有一些重要的能力,包括機器知覺(例如計算機視覺),以及在智能行爲的世界中行動的能力(例如機器人移動自身和其餘物體的能力)。它可能包括探知與迴避危險的能力。

許多研究智能的交叉領域(例如認知科學、機器智能和決策)試圖強調一些額外的特徵,例如想象力(不依靠預設而建構精神影像與概念的能力)以及自主性。

基於計算機的系統中的確已經存在許多這樣的能力,例如計算創造性、自動推理、決策支持系統、機器人、進化計算、智能代理,然而並未達到人類的水平。

回到具體的檢驗強人工智能的上手段,科學家們也有着不少不一樣的想法,其中最被普遍認知的是下面的這四種:

1. 圖靈測試(圖靈)

若是一我的(代號 C)使用測試對象皆理解的語言去詢問兩個他不能看見的對象任意一串問題。對象爲:一個是正常思惟的人(代號 B)、一個是機器(代號 A)。若是通過若干詢問之後,C 不能得出實質的區別來分辨 A 與 B 的不一樣,則此機器 A 經過圖靈測試。

2. 咖啡測試 (格策爾)

生活中空間、操做技能的測試。將一部機器帶到任何一個普通的美國家庭中,讓它在不經刻意設計的條件下,懂得泡好一杯咖啡。它須要主動在陌生空間中認識咖啡機、辨識咖啡和水、找到合適的杯子並放好,而後按正確的鍵和操做以沖泡咖啡。這須要仰賴機器人學、圖像辨識的演算。

3. 機器人學生測試 (格策爾)

透過機器學習,分析和回答單一問題的測試 。讓一個機器去註冊一所大學,參加和人類學生一樣的考試,而後經過並得到學位。例如日本的東大 AI 或是 IBM 參加搶答節目的華生。

4. 僱員測試 (尼爾森)

測試統籌、推斷、發想、規劃解決複雜問題的能力。讓機器處在一個經濟上重要的職位,須要它可以和一樣職位的人類作得一樣好或者更好。

這些測試雖然都不盡相同,但目的都是評定創造出的人工智能能不能解決人類的問題。

若是能夠解決,那麼就認定該人工智能屬於強人工智能,也就是和人類同樣聰明,稱之爲「人工智能完備」。

如今業界假定的人工智能完備的問題包括計算機視覺、天然語言理解,以及處理真實世界中的意外狀況。目前爲止,人工智能完備的問題仍然不能單靠人工智能來解決,依然須要介入人類的計算。

強人工智能的研究歷史

clipboard.png

現代人工智能研究開始於 1950 年代中期。當時有一批狂熱的人工智能愛好者,他們相信強人工智能不只是能夠實現的,而且將在幾十年內就能實現。

人工智能先驅司馬賀在 1965 年寫道:「在20年以內,機器就可以作到一我的能作到的任何事。」

然而,到了 1970 年代早期,研究者們意識到他們遠遠低估了其中的困難。資助 AI 項目的機構開始對強人工智能產生懷疑,向研究者們施壓要求他們轉向更有用的技術,所謂的「應用 AI」。

在 1980 年代初,由於電腦產品的迭代發展科學界重拾了對強人工智能的興趣,並制定了一個十年計劃 ——好比十年內實現人工智能的「平常對話」。 這也讓當時的工業界以及政府機構從新往人工智能的領域中投入資金。

然而,人工智能的市場在 1980 年代晚期發生劇烈崩塌,20 年內實現強人工智能的遠景終究是沒有實現。

到了 1990 年代,人工智能研究者背上了沒法實現本身承諾的名聲,他們拒絕再做出任何預言,而且避免提到任何「人類水平」的人工智能,以避免被貼上「白日夢」的標籤。

在 1990 年代和 21 世紀初,主流的人工智能在商業成果和學術地位上已經達到了一個新高度,依靠的是專一於細分的專門問題的解決。他們能夠提供許多方案和商業應用,例如人工神經網絡、機器視覺以及數據挖掘。

這些「應用人工智能」今天已經在工業技術和研究中獲得普遍和深刻應用,在學術和產業方面都獲得了許多資助。

大多數主流的人工智能研究者但願,可以經過將解決局部問題的方法組合起來實現強人工智能,例如將智能體架構、認知架構或者包容式架構整合起來。漢斯·莫拉維克在 1988 年寫道:

"我相信,有一天人工智能的自下而上的研究路線,會與傳統的自上而下的路線半途相遇,從而得到真實世界中的能力,以及對於推理程序來講極其困難的常識知識庫。這兩種方向結合在一塊兒的時刻,會成爲了產生真正智能機器的所謂「金釘子」。"

然而,在人工智能研究者之間也存在一些爭論,甚至涉及這個領域的技術理論基礎;例如,普林斯頓大學的 S.Harnad 在 1990 年關於符號基礎假設的論文中這樣寫道:

"人們期待,人工智能的自下而上的研究路線,會與傳統的自上而下的路線半途相遇。可是若是這篇文章的基礎是正確的,那麼這個但願不會實現。

關於強人工智能的爭論

clipboard.png

除了技術理論層面的分歧,關於強人工智能的爭論,不一樣於更廣義的一元論和二元論的爭論。其爭論要點是:若是一臺機器的惟一工做原理就是轉換編碼數據,那麼這臺機器是否是有思惟的?

希爾勒認爲這是不可能的。他舉了著名的「中文屋」的例子來講明,若是機器僅僅是轉換數據,而數據自己是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關係的前提下,機器不可能對其處理的數據有任何理解。

基於這一論點,希爾勒認爲即便有機器經過了圖靈測試,也不必定說明機器就真的像人同樣有思惟和意識。

但也有哲學家持不一樣的觀點。

丹尼爾·丹尼特(Daniel C. Dennett)在其著做《意識的闡釋》裏認爲,人也不過是一臺有靈魂的機器而已,爲何咱們認爲:「人能夠有智能,而普通機器就不能」呢?他認爲像上述的數據轉換機器是有可能有思惟和意識的。

這個討論,至今仍沒有定論。但強人工智能的研究,並未因分歧而停滯。

強人工智能,科技企業的下一個戰場

clipboard.png

谷歌有一個神祕的部門 —— 谷歌大腦,這是谷歌在人工智能領域開發出的一款模擬人腦的軟件,經過開發具體的算法協助改進了谷歌的搜索引擎、谷歌翻譯、谷歌地圖和雲計算基礎設施。

一樣,2015 年,馬斯克和 Y Combinator 前總裁薩姆·奧爾特曼(Sam Altman)聯合創辦了 OpenAI,目標也是開發通用人工智能,確保「造福全人類」的前提下開發技術。2016 年微軟也加入了這一項目。

2019 年微軟宣佈出資 10 億美圓,讓 OpenAI 在微軟 Azure 雲平臺開發 AI 技術。

除了加入 OpenAI 以外,納德拉在 2014 年被任命爲微軟的首席執行官後不久,就開始圍繞人工智能從新定位。納德拉宣稱,微軟旗下的全部產品和服務都會「加入人工智能」,還宣佈人工智能是塑造將來的三項基本技術之一(另外兩項是「混合現實」和量子計算)。

此外,Facebook 也投資了人工智能實驗室,國內的阿里巴巴、騰訊、百度等科技企業也紛紛成立目標爲強人工智能的實驗室。根據研究公司 Mind Commerce 發佈報告顯示,預計到 2023 年,通用人工智能的投資將達到 500 億美圓。

目前,科技企業與研究機構對強人工智能的研究基本上分爲兩大陣營:一方陣營認爲只有深度學習才能夠實現強人工智能,另外一個陣營則認爲必須與其餘方面(如邏輯規則)結合。在深度學習陣營中,還有進一步的劃分:一羣強調算法創新,另外一羣則更關注構建神經網絡的規模以及提供的數據量。好比 OpenAI 就是堅決的「數據黨」。

但不管如何,強人工智能或者說是通用人工智能,已經成爲了全球科技企業的戰場,這不只關乎市場份額,也是會不會被將來的市場淘汰的問題。

人類能夠和強人工智能兼容麼?

clipboard.png

已故的斯蒂芬·霍金將強人工智能稱爲對人類的最大威脅,前文提到的馬斯克雖然經過 DeepMind 得到了豐厚的收益以及行業影響力,但他也曾經將通用人工智能的研究比做「召喚魔鬼」。

馬斯克與谷歌的聯合創始人拉里·佩奇也是朋友。他在一次採訪中告訴記者,擔憂佩奇的公司在可能成功地開發出超人智能後失去控制。即使這不會發生,一家公司控制如此強大的技術仍是使人擔憂。

既然這麼擔憂,他爲何不中止人工智能的研究?

緣由多是,結束人工智能研究不只意味着放棄理解咱們人類的智能究竟是如何工做的,還意味着放棄了改善人類情況的機會,也就是令人類文明更加美好或者維持下去的機會。

將來避免強人工智能帶來的潛在風險,計算機科學家斯圖爾特·拉塞爾(Stuart Russell)在他的最新著做《人類兼容:人工智能與控制問題》中提出了一個解決方案,可讓強人工智能對人類有益,而且永遠不會失控:

「理想的強人工智能系統是其惟一的目標,是實現人的偏好而不是其自身目標的系統。只有這樣人工智能纔不會爲了實現目標,而不顧其餘的緣由獨斷獨行。

最後一點很是重要,由於這正是當前人工智能所缺乏的。現階段驅動人工智能的系統不是讓其理解人類的偏好,而是實現系統設定的固定目標,好比得到更多的廣告點擊、最優化行爲路徑,而不會估計對人類可能形成的危害和是否違背了程序設定的初心。

正由於這種設定,當前的人工智能系統已經逐漸顯露出不少的問題,好比算法誤差、種族歧視等問題。

隨着人工智能在執行任務時變得更加高效,這些問題可能會加重。固定於實現一個目標的強人工智能系統,最終可能會爲了實現他的目標而犧牲整我的類社會。

但單純的理解人類意圖也並不是完美的解決方案,由於設定者並不能表明全人類,如何處理不一樣人類的偏好衝突和人類自己的邪惡思想,還是沒法規避的風險。

畢竟人類也不是完美的,人類的決策也存在着不少的爭議。

只要回顧一下咱們人類如何憑藉自身超然的智慧來控制整個世界,就能想象當強人工智能的智慧超過咱們時會發生什麼。對此羅素在書的最後提出了一個問題,也做爲本文最後的一個話題來和你們探討:

在一個存在更高等智慧的非生物世界中,咱們人類還能保持相似如今這樣的控制權麼?若是能夠的話,咱們的依仗將是什麼?

clipboard.png

相關文章
相關標籤/搜索