人工智能

轉自:  http://www.cnbruce.com/blog/showlog.asp?cat_id=37&log_id=1422html

 

在經歷了蠻荒的PC互聯網時代,混戰的移動互聯網時代,到現今最火的人工智能時代。大數據、雲計算、機器學習的技術應用,已經使得IT從業者的門檻愈來愈高。套用一句樊登讀書會的宣傳口號「keep learning」,保持對新鮮技術的好奇心,保持對技術應用的責任心,持續關注、學習是每一個IT從業者的必備技能。

1、什麼是人工智能?



人工智能(Artificial Intelligence),英文縮寫爲AI。

它是一個融合計算機科學、統計學、腦神經學和社會科學的前沿綜合學科。

它使得計算機像人同樣擁有智能能力,能夠代替人類實現識別、認知,分析和決策等多種功能。

好比當你說一句話時,機器可以識別成文字,並理解你話的意思,進行分析和對話等。


2、人工智能發展簡史



1956年,幾個計算機科學家相聚在達特茅斯會議(Dartmouth Conferences),提出了「人工智能」的概念。其後,人工智能就一直縈繞於人們的腦海之中,並在科研實驗室中慢慢孵化。

以後的幾十年,人工智能一直在兩極反轉,或被稱做人類文明耀眼將來的預言;或者被當成技術瘋子的狂想扔到垃圾堆裏。坦白說,直到2012年以前,這兩種聲音還在同時存在。

上世紀90年代,國際象棋冠軍卡斯帕羅夫與"深藍" 計算機決戰,"深藍"獲勝,這是人工智能發展的一個重要里程碑。而 2016 年,Google 的 AlphaGo 贏了韓國棋手李世石,再度引起 AI 熱潮。

過去幾年,尤爲是2015年以來,人工智能開始大爆發。很大一部分是因爲GPU的普遍應用,使得並行計算變得更快、更便宜、更有效。

固然,無限拓展的存儲能力和驟然爆發的數據洪流(大數據)的組合拳,也使得圖像數據、文本數據、交易數據、映射數據全面海量爆發。



3、人工智能發展條件

一、硬件發展:AI 不斷爆發熱潮,是與基礎設施的進步和科技的更新分不開的,從 70 年代 personal 計算機的興起到 2010 年 GPU、異構計算等硬件設施的發展,都爲人工智能復興奠基了基礎。

二、數據發展:互聯網及移動互聯網的發展也帶來了一系列數據能力,令人工智能能力得以提升。

三、運算髮展:計算機的運算能力從傳統的以 CPU 爲主導到以 GPU 爲主導,這對 AI 有很大變革。

四、算法發展:算法技術的更新助力於人工智能的興起,最先期的算法通常是傳統的統計算法,如 80 年代的神經網絡,90 年代的淺層,2000 年左右的 SBM、Boosting、convex 的 methods 等等。隨着數據量增大,計算能力變強,深度學習的影響也愈來愈大。尤爲是2011 年以後,深度學習的興起,帶動了現今人工智能發展的高潮。




4、機器學習:一種實現人工智能的方法

機器學習(Machine Learning, ML)是一門多領域交叉學科,涉及機率論、統計學、逼近論、凸分析、算法複雜度理論等多門學科。

機器學習是人工智能的核心,是使計算機具備智能的根本途徑,其應用遍佈人工智能的各個領域,它主要使用概括、綜合而不是演繹。

機器學習最基本的作法,是使用算法來解析數據、從中學習,而後對真實世界中的事件作出決策和預測。

與傳統的爲解決特定任務、硬編碼的軟件程序不一樣,機器學習是用大量的數據來「訓練」,經過各類算法從數據中學習如何完成任務。

機器學習最成功的應用領域是計算機視覺,雖然也仍是須要大量的手工編碼來完成工做。人們須要手工編寫分類器、邊緣檢測濾波器,以便讓程序能識別物體從哪裏開始,到哪裏結束;寫形狀檢測程序來判斷檢測對象是否是有八條邊;寫分類器來識別字母「STOP」。使用以上這些手工編寫的分類器,人們總算能夠開發算法來感知圖像,判斷圖像是否是一箇中止標誌牌。

【機器學習有三類】:

第一類是無監督學習,指的是從信息出發自動尋找規律,並將其分紅各類類別,有時也稱"聚類問題"。

第二類是監督學習,監督學習指的是給歷史一個標籤,運用模型預測結果。若有一個水果,咱們根據水果的形狀和顏色去判斷究竟是香蕉仍是蘋果,這就是一個監督學習的例子。

最後一類爲強化學習,是指能夠用來支持人們去作決策和規劃的一個學習方式,它是對人的一些動做、行爲產生獎勵的回饋機制,經過這個回饋機制促進學習,這與人類的學習類似,因此強化學習是目前研究的重要方向之一。




5、深度學習:一種實現機器學習的技術

值得一提的是機器學習同深度學習之間仍是有所區別的,機器學習是指計算機的算法可以像人同樣,從數據中找到信息,從而學習一些規律。雖然深度學習是機器學習的一種,但深度學習是利用深度的神經網絡,將模型處理得更爲複雜,從而使模型對數據的理解更加深刻。

深度學習是機器學習中一種基於對數據進行表徵學習的方法。深度學習是機器學習研究中的一個新的領域,其動機在於創建、模擬人腦進行分析學習的神經網絡,它模仿人腦的機制來解釋數據,例如圖像,聲音和文本。

同機器學習方法同樣,深度機器學習方法也有監督學習與無監督學習之分.不一樣的學習框架下創建的學習模型非常不一樣.例如,卷積神經網絡(Convolutional neural networks,簡稱CNNs)就是一種深度的監督學習下的機器學習模型,而深度置信網(Deep Belief Nets,簡稱DBNs)就是一種無監督學習下的機器學習模型。



如上圖,人工智能是最先出現的,也是最大、最外側的同心圓;其次是機器學習,稍晚一點;最內側,是深度學習,當今人工智能大爆炸的核心驅動。



6、人工神經網絡:一種機器學習的算法

人工神經網絡(Artificial Neural Networks)是早期機器學習中的一個重要的算法,歷經數十年風風雨雨。神經網絡的原理是受咱們大腦的生理結構——互相交叉相連的神經元啓發。但與大腦中一個神經元能夠鏈接必定距離內的任意神經元不一樣,人工神經網絡具備離散的層、鏈接和數據傳播的方向。

例如,咱們能夠把一幅圖像切分紅圖像塊,輸入到神經網絡的第一層。在第一層的每個神經元都把數據傳遞到第二層。第二層的神經元也是完成相似的工做,把數據傳遞到第三層,以此類推,直到最後一層,而後生成結果。

每個神經元都爲它的輸入分配權重,這個權重的正確與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。

咱們以「中止(Stop)標誌牌」爲例,將一箇中止標誌牌圖像的全部元素都打碎,而後用神經元進行「檢查」:八邊形的外形、消防車般的紅顏色、鮮明突出的字母、交通標誌的典型尺寸和靜止不動運動特性等等。神經網絡的任務就是給出結論,它究竟是不是一箇中止標誌牌。神經網絡會根據全部權重,給出一個通過深思熟慮的猜想——「機率向量」。

回過頭來看這個中止標誌識別的例子。神經網絡是調製、訓練出來的,時不時仍是很容易出錯的。它最須要的,就是訓練。須要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調製得十分精確,不管是否有霧,晴天仍是雨天,每次都能獲得正確的結果。

只有這個時候,咱們才能夠說神經網絡成功地自學習到一箇中止標誌的樣子;或者在Facebook的應用裏,神經網絡自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實現了神經網絡學習到貓的樣子等等。

吳教授的突破在於,把這些神經網絡從基礎上顯著地增大了。層數很是多,神經元也很是多,而後給系統輸入海量的數據,來訓練網絡。在吳教授這裏,數據是一千萬YouTube視頻中的圖像。吳教授爲深度學習(deep learning)加入了「深度」(deep)。這裏的「深度」就是說神經網絡中衆多的層。

如今,通過深度學習訓練的圖像識別,在一些場景中甚至能夠比人作得更好:從識別貓,到辨別血液中癌症的早期成分,到識別核磁共振成像中的腫瘤。Google的AlphaGo先是學會了如何下圍棋,而後與它本身下棋訓練。它訓練本身神經網絡的方法,就是不斷地與本身下棋,反覆地下,永不停歇。


7、人工智能的研究領域和分支

人工智能研究的領域主要有五層:

一、最底層是基礎設施建設,包含數據和計算能力兩部分,數據越大,人工智能的能力越強。

二、往上一層爲算法,如卷積神經網絡、LSTM 序列學習、Q-Learning、深度學習等算法,都是機器學習的算法。

三、第三層爲重要的技術方向和問題,如計算機視覺,語音工程,天然語言處理等。還有另外的一些相似決策系統,像 reinforcement learning(編輯注:加強學習),或像一些大數據分析的統計系統,這些都能在機器學習算法上產生。

四、第四層爲具體的技術,如圖像識別、語音識別、機器翻譯等等。

五、最頂端爲行業的解決方案,如人工智能在金融、醫療、互聯網、交通和遊戲等上的應用,這是咱們所關心它能帶來的價值。




8、人工智能的應用場景

一、計算機視覺
2000年左右,人們開始用機器學習,用人工特徵來作比較好的計算機視覺系統。如車牌識別、安防、人臉等技術。而深度學習則逐漸運用機器代替人工來學習特徵,擴大了其應用場景,如無人車、電商等領域。


二、語音技術
2010 年後,深度學習的普遍應用使語音識別的準確率大幅提高,像 Siri、Voice Search 和 Echo 等,能夠實現不一樣語言間的交流,從語音中說一段話,隨之將其翻譯爲另外一種文字;再如智能助手,你能夠對手機說一段話,它能幫助你完成一些任務。與圖像相比,天然語言更難、更復雜,不只須要認知,還須要理解。


三、天然語言處理
目前一個比較重大的突破是機器翻譯,這大大提升了原來的機器翻譯水平,舉個例子,Google 的 Translation 系統,是人工智能的一個標杆性的事件。2010 年左右, IBM 的"Watson"系統在一檔綜藝節目上,和人類冠軍進行天然語言的問答並獲勝,表明了計算機能力的顯著提升。


四、決策系統
決策系統的發展是隨着棋類問題的解決而不斷提高,從 80 年代西洋跳棋開始,到 90 年代的國際象棋對弈,機器的勝利都標誌了科技的進步,決策系統能夠在自動化、量化投資等系統上普遍應用。


五、大數據應用
能夠經過你以前看到的文章,理解你所喜歡的內容而進行更精準的推薦;分析各個股票的行情,進行量化交易;分析全部的像客戶的一些喜愛而進行精準的營銷等。機器經過一系列的數據進行判別,找出最適合的一些策略而反饋給咱們。


9、人工智能的將來之路

一、在計算機視覺上,將來的人工智能應更加註重效果的優化,增強計算機視覺在不一樣場景、問題上的應用。

二、在語音場景下,當前的語音識別雖然在特定的場景(安靜的環境)下,已經可以獲得和人類類似的水平。但在噪音情景下仍有挑戰,如原場識別、口語、方言等長尾內容。將來需加強計算能力、提升數據量和提高算法等來解決這個問題。

三、在天然語言處理中,機器的優點在於擁有更多的記憶能力,但卻欠缺語意理解能力,包括對口語不規範的用語識別和認知等。人說話時,是與物理事件學相聯繫的,好比一我的說電腦,人知道這個電腦意味着什麼,或者它是可以幹些什麼,而在天然語言裏,它僅僅將"電腦"做爲一個孤立的詞,不會去產生相似的聯想,天然語言的聯想只是經過在文本上和其餘所共現的一些詞的聯想, 並非物理事件裏的聯想。因此若是要真的解決天然語言的問題,未來須要去創建從文本到物理事件的一個映射,但目前仍沒有很好的解決方法。所以,這是將來着重考慮的一個研究方向。

四、當下的決策規劃系統存在兩個問題,第一是不通用,即學習知識的不可遷移性,如用一個方法學了下圍棋,不能直接將該方法轉移到下象棋中,第二是大量模擬數據。因此它有兩個目標,一個是算法的提高,如何解決數據稀少或怎麼自動可以產生模擬數據的問題,另外一個是自適應能力,當數據產生變化的時候,它可以去適應變化,而不是能力有所降低。全部一系列這些問題,都是下一個五或十年咱們但願很快解決的。




參考:
騰訊 AI Lab 張潼主任帶你輕鬆 get AI 新知識
https://www.qcloud.com/community/article/666041

人工智能、機器學習和深度學習之間的區別和聯繫
https://www.cnblogs.com/dadadechengzi/articles/6575767.html

百度百科:人工智能
https://baike.baidu.com/item/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/9180

百度百科:機器學習
https://baike.baidu.com/item/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0

百度百科:深度學習
https://baike.baidu.com/item/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/3729729

百度百科:人工神經網絡
https://baike.baidu.com/item/%E4%BA%BA%E5%B7%A5%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C算法

相關文章
相關標籤/搜索