深度學習之美(張玉宏)——第三章 機器學習三重門


 2019-06-13 19:39:24 ——讀書筆記1 ——機器學習三重門(監督學習,半監督學習,非監督學習)算法


 

1、監督學習網絡

  監督學習基本上是「分類」的代名詞,用訓練數據集合學習獲得一個模型,而後再使用這個模型對新樣本進行預測。根據目標預測變量的類型不一樣,監督學習大致可分爲迴歸分析和分類學習。迴歸分析一般用最小二乘法求解,分類算法中比較著名的有K近鄰,支持向量機,樸素貝葉斯分類器,決策樹,BP 反向傳播算法等。機器學習

  以KNN爲例,KNN屬於惰性學習,它沒有顯式的訓練過程,在訓練階段僅僅將樣本保存起來 ,因此訓練時間開銷爲零。待收到測試樣本時,纔開始處理。 與之相反的是,在訓練階段就「火急火燎」地從訓練樣本中建模型、調參數的學習方法,稱爲」急切學習「。給定某個待分類的測試樣本,基於某種距離(如歐幾里得距離),找到訓練集合中與其最近的K個訓練樣本,而後基於這K個最近的「鄰居」 (K爲正整數,一般較小),進行預測分類。函數

2、非監督學習學習

  非監督學習本質上是」聚類「若是說分類是指根據數據的特徵或屬性,分到已有的類當中, 那麼,聚類一開始並不知道數據會分爲幾類,而是經過聚類分析將數據聚成幾個羣。比較有名的非監督學習算法有:均值聚類, 關聯規則分析,主成分分析, 隨機森林,受限玻爾茲曼機。目前,用在深度學習裏,最有前景的無監督學習算法是 Ian Goodfellow 提出來的「生成對抗網絡」。測試

  以K均值聚類爲例,聚類的關鍵是「類似」性度量,不一樣的類似性標準會產生不一樣的分類結果。如:一樣是人,類似是按年齡仍是按性別劃分就會有不一樣的聚類結果。同一個聚類算法只能用一種數據表示,不然沒法度量類似性。評估環節是聚類和分類最大的差別之處,分類有明確的外界標準,是貓是狗一目瞭然,而聚類的評估, 顯得相對主觀。K均值聚類的目的在於,給定K個指望的聚類個數和包括N個數據對象的數據集合,將其劃分爲知足距離方差最小的K個類。大數據

3、半監督學習——中庸之道人工智能

  遠離父母、走出校園後(少許監督學習),沒有人告訴你對與錯,一切都要基於本身早期已獲取的知識,從社會中學習擴大並更新本身的認知體系(無監督學習),而後當遇到新事物時,咱們能泰然自若處理,而非魂飛魄散。半監督學習就是以「己知之認知(標籤化的分類信息),擴大未知之領域(經過聚類思想將未知事物歸類爲己知事物)」隱含了一個基本假設一一聚類假設,其核心要義就是 :類似的樣本,擁有類似的輸出。常見的半監督學習算法有生成式方法,半監督支持向量機,圖半監督學習,半監督聚類等。半監督學習既用到了監督學習的先驗知識,也吸納了非監督學習的聚類思想, 兩者兼顧。spa

4、強化學習設計

  「強化學習」亦稱「加強學習」,但它與監督學習和非監督學習有所不一樣,強化學習強調在一系列的情景之下,選擇最佳決策,它講究經過多步恰當的決策,來逼近一個最憂的目標 所以,它是一種序列多步決策的問題。強化學習的設計靈感源於心理學中的行爲主義理論,即有機體如何在環境給予的獎勵或懲罰剌激下,逐步造成對剌激的預期,從而產生能得到最大利益的習慣性行爲。簡單地說就是」好孩子是表揚出來的「。強化學習也使用未標記的數據,它能夠經過某種方法(獎懲函數)知道你是離正確答案愈來愈近,仍是愈來愈遠。

5、關於人工智能的思考

  機器學習的研究還分爲三大流派:鏈接主義、行爲主義和符號主義。

  鏈接主義的主要表明形式是人工神經網絡,它的處理對象是原始的數據,這部分研究包括深度學習的最新進展。

  行爲主義的表明形式就是強化學習方法,Alphago zero即爲一個成功的例子,但其成功的規則並不能說明能夠普遍適用於其餘人工智能領域。其一是由於AlphaGo Zero 依靠規則明確的圍棋,自動生成了大量的、 訓練本身的數據 ,而人類的智能表現,大可能是在非明確規則下完成的,也無須大數據來訓練本身的智能。舉個例子:你一生能談幾回戀愛(屈指可數吧),家不是講理(規則)的地方,談戀愛也不是吧?其二是由於圍棋屬於一種彼此信息透明、方案可窮舉的全信息博弈遊戲 然而,人類的決策,大可能是在信息殘缺處境下作出的。因此想把它的強化學習經驗遷移到信息非完備的場景,還有很長的路要走。

  符號主義的表明形式是專家系統和知識圖譜。近來又有「老樹發新芽」之勢,特別是知識圖譜,在智能搜索領域有着普遍的應用。

  從三大流派處理的對象來看,有某種遞進的關係:數據-->信息-->知識。做爲小白的我呢,也不指望能給人工智能作出多大貢獻,會用就行,若是你也是這條路上的小夥伴,那咱們一塊兒加油吧。


 

注:以上文字借鑑書中內容,詳細資料請參見正版圖書《深度學習之美》張玉宏。

相關文章
相關標籤/搜索