2019年AI人工智能領域都發生了什麼?

做者 | David Foster
譯者 | Sambodhi

2019 年無疑是忙碌的一年。人工智能的進步和新聞頻頻登上頭條新聞,讓咱們的生活充滿了敬畏和自豪的時刻,但一些其餘時刻充卻斥着一種惱人的想法,那就是這項技術讓人們發現,咱們的社會並無準備好迎接人工智能的普及。算法

2019 年,到底是人工智能進步的一年,仍是幻滅的一年呢?隨着研究人員攻城略地,迅速攻克之前難以企及的基準,今天,咱們可不能夠這樣認爲,這個領域已經正在步入穩步發展的軌道呢?網絡

在 ADSP(Applied Data Science Partners,意即「應用數據科學合做夥伴」)網站上,咱們想後退一步,把 2019 年的人工智能界發生的事件整理好,以讓公衆可以有個全新的視角。在聚光燈下,重要的是要將一項工做最初吸引人們的興趣,與它的實際重要性,以及它對該領域產生的影響區分開來。爲此,本文將展開人工智能故事的平行線索,並試圖分離出它們的意義。多虧了咱們出色的內容做家 Elena Nisioti,她將這些故事講得如此精彩!併發

讓咱們坐下來,一塊兒回顧 2019 年的人工智能領域的方方面面。框架

處在文藝復興時期的領域

若是讓咱們用一句話來描述 2019 年的人工智能現狀,那極可能是:「強化學習(Reinforcement Learning )迴歸,看起來將永存」。機器學習

到目前爲止,咱們中的大多數人可能已經熟悉了 監督式學習(Supervised Learning):有些人收集了大量的 訓練數據,將它們饋送到 機器學習算法 中,而後獲得一個 模型,這個模型能夠爲咱們進行 預測 和 分類。咱們中的一些人甚至可能有這樣的印象:即,人工智能就是監督式學習的同義詞。然而,監督式學習只不過是咱們今天擁有的 衆多類型的機器學習 中的一種罷了。工具

在強化學習(Reinforcement Learning,RL)中,智能體用 試錯 的方法,經過與環境進行交互來學習,這種環境會給它們的 行爲 提供 獎勵回報。當涉及到多個智能體時,它們被稱爲 多智能體強化學習系統(Multi-agent Reinforcement Learning System)。學習

這個領域已經存在幾十年,從概念上來說,它聽起來比監督式學習更像是一種合理的創造智能的學習機制。然而,直到 2015 年,DeepMind 纔得到了人們的關注,當時 DeepMind 使用深度 Q 學習(Deep Q-learning)建立了 Atari(雅達利) 遊戲的智能體,這是一種結合了經典強化學習算法和深度神經網絡的算法。2018 年,OpenAI 也經過 解決 Montezuma’s Revenge(一款被認爲難度特別高的 Atari 遊戲),從而在這一領域確立了本身的地位。網站

在過去的幾個月裏,事態升級了:人工智能

這些工做從新喚起了學術界對強化學習的信念,在過去,人們曾經認爲強化學習效率低下,過於簡單,沒法解決複雜的問題,甚至連遊戲的問題也不能解決。spa

今年,另外一個大受歡迎的應用是 天然語言處理(Natural Language Processing,NLP)。儘管研究人員在這一領域工做了幾十年,但近些年的天然語言處理系統生成的文本聽起來仍是不夠天然。自 2018 年末以來,人們的注意力已經從過去的詞嵌入轉移到 預訓練語言模型,這是天然語言處理從計算機視覺中借鑑來的一種技術。這些模型的訓練是以非監督的方式進行的,這使得現代系統可以從互聯網上的大量文本中進行學習。所以,這些模型變得「博聞強識」,並發展出了理解上下文的能力。而後,能夠經過監督式學習進一步提升它們在特定任務上的表現。這種經過在不一樣任務上訓練機器學習模型來改進模型的作法,屬於 遷移學習(transfer learning)的範疇,被認爲具備巨大的潛力。

自去年 Google BERT、ELMo 和 ulmfit 等系統在 2018 年末推出以來,天然語言處理一直風頭正茂,但今年的聚光燈被 OpenAI 的 GPT-2 給「奪走了」,它的表現引起了人們對 天然語言處理系統的道德使用的大討論。

實踐走向成熟

今年,人們也見證了最近一些深度學習技術走向成熟。應用監督式學習,特別是 計算機視覺 技術,已經催生了現實生活中成功的產品和系統。

生成對抗網絡(Generative Adversarial Networks,GAN)是一對神經網絡,其中,生成器網絡試圖經過學習生成模仿訓練數據的圖像來欺騙判別器網絡,如今已經達到了近乎完美的水平。對人工智能來講,創造虛假但又逼真的人物和物體的圖像,已經再也不是前沿領域了。從 2014 年生成對抗網絡的引入 到 2019 年 NVDIA 開源的 StyleGAN,一圖勝千言,咱們用下面的圖片來講明,這多是理解該領域進展狀況的最佳方式:

2019 年,人工智能創造的藝術品甚至脫離了過去幾年的假設性討論,成爲了今天 博物館裝置和拍賣 的一部分。

計算機視覺還被應用於一些具備重大商業和社會意義的領域,包括自動駕駛車輛和醫學。可是,人工智能算法在這些領域中的應用天然是緩慢的,由於它們直接與人類生活直接互動。至少到目前爲止,這些系統還 不是徹底自主的,它們的目的,在於支持和 加強 人類操做員的能力。

研究團隊正與醫院密切合做,開發用於疾病早期預測的人工智能系統,並整理大量的健康數據檔案,其中一個值得注意的例子,是 DeepMind Health 和 UCLH 之間正在進行的合做。然而,這些工做中的大部分仍處於試驗階段,迄今爲止,惟一得到 FDA 批准的人工智能系統是 SubtlePet,這是一款使用深度學習加強醫學圖像的軟件。

沉睡的巨人

AutoML 是機器學習的子領域之一,自 20 世紀 90 年代以來就一直存在,在 2016 年引發了人們的極大興趣,但不知何故從未登上頭條新聞,至少不像其餘人工智能趨勢那樣。也許這是由於它並不那麼花哨的性質:AutoML 的目的是經過自動化決策來使機器學習的實踐更有效,而今天數據科學家是經過手動、蠻力調優作出的決策。

在過去三年中,咱們對這一領域的理解已經發生了變化,今天,大多數大公司都提供了 AutoML 工具,包括 Google Cloud AutoML、Microsoft Azure、Amazon Web Service 和 DataRobot 等。今年,隨着 學習進化人工智能框架(Learning Evolutionary AI Framework,LEAF)成爲最早進的人工智能技術,人們的興趣轉向了「進化」(Evolutionary)方法。然而,AutoML 尚未達到可讓一個徹底自動化的人工智能系統比人工智能專家團隊執行更好的成熟水平。

對人工智能的擔心

儘管取得了壓倒性的成功,但今年人工智能領域也給咱們帶來了一些使人沮喪的故事。其中主要問題之一是 機器學習模型中的偏見,這一問題直到 2018 年才顯現出來,當時 Amazon 發現他們的 自動招聘系統中存在性別偏見,而美國法院普遍使用的判決工具 COMPAS 也被發現存在性別和種族的偏見。

今年案件的數量有所增長,這可能代表,公衆和機構對用於自動化決策的現有人工智能系統愈來愈懷疑。如下是圖景的一小部分:

  • 今年 10 月份,某醫院的算法被發現對黑種人患者存有偏見。
  • 去年 10 月,某人權組織指責用於發放英國簽證的人工智能系統存在種族偏見。
  • 今年 11 月,Apple 的信用評分系統被客戶指責存有性別偏見。

偏見是一個特別使人擔心的問題,由於它位於監督式深度學習的核心中:當有偏見的數據被用於訓練,且預測模型沒法 解釋 時,咱們不能真正判斷出是否存有偏見。迄今爲止,學術界的反應一直是致力於開發技術,以瞭解深度模型決策背後的緣由,但專家警告稱,若是咱們採用正確的實踐方法,那麼許多問題均可以迎刃而解。Google Cloud Model Cards 是最近的一次嘗試,旨在使組織社區走向開源模式,同時明確描述其性質和侷限性。

今年另外一個讓人擔心的發現是,當一項技術變得越複雜時,它被濫用的可能性就越大。Deepfake就是生成對抗網絡的陰暗面,深度學習算法被用來在純粹虛構的場景中建立涉及真實人物的圖片或視頻。人們不難看出,這項技術如何被用於傳播虛假新聞,從政治宣傳到欺凌。這個問題單靠科學家是沒法解決的,歷史已經證實,科學家並不善於預測他們的發現對現實生活的影響,更不用說控制它們了,這須要社會各界進行普遍的對話。

今天的人工智能有多強大?

現在,要量化人工智能的價值真的很困難。但有一點是能夠確定的:人工智能已經脫離了科幻小說和前衛計算機科學的領域,如今,人工智能已成爲社會不可分割的一部分,人們對人工智能進行了大量的投資。

今年早些時候,三名主要的深度學習研究人員得到了圖靈獎,這是對人工智能做爲計算機科學的一個領域的承認,而人們對此期待已久。

相關文章
相關標籤/搜索