被錯誤理解的人工神經網絡(一)!

摘要: 那些年咱們錯誤理解了人工神經網絡,想知道錯在什麼地方嗎?快來學習一下吧。html

神經網絡是機器學習算法中最流行且最強大的算法。在定量金融中,神經網絡一般用於時間序列預測、構建專有指標、算法交易、證券分類和信用風險建模,它也被用來構建隨機過程模型和價格衍生工具。儘管它頗有用,但神經網絡每每由於它們的性能是「不可靠的」而聲譽不佳。在我看來,這多是因爲對神經網絡工做機制誤解所致。本系列將討論了一些常見的對於神經網絡的誤解。本文先介紹兩個錯誤的理解:它是人腦的模型,第二它是統計學的一種弱形式。算法

神經網絡不是人腦的模型

人類的大腦是咱們這個時代最偉大的奧祕,科學家們還沒有就其工做原理達成共識。目前有兩種大腦理論:即祖母細胞理論和分佈式表徵理論。第一個理論認爲,單個神經元具備很高的處理信息能力,而且可以表達複雜的概念。第二種理論認爲,神經元更簡單,複雜對象的表示分佈在許多神經元中。人工神經網絡貌似是受到第二種理論的啓發。網絡

我相信目前這一代神經網絡不具有感知能力(與智能不一樣)的一個緣由是由於生物神經元比人工神經元複雜得多。架構

大腦中的單個神經元是一臺使人難以置信的複雜機器,即便在今天咱們也不明白。而神經網絡中的單個「神經元」是一個很是簡單的數學函數,只能捕捉生物神經元複雜性的一小部分。因此說神經網絡模仿大腦,這在思路上是真的,但真正的人造神經網絡與生物大腦沒有什麼類似之處——Andrew Ng機器學習

大腦和神經網絡之間的另外一大區別在於規模和組織。人腦比神經網絡包含更多的神經元和突觸,他們有自我組織能力和適應性。相比之下,神經網絡是根據架構來組織的。神經網絡不像大腦那樣是「自組織」的,與有序網絡相比,神經網絡更接近圖形。分佈式

 6145a9d8da169a56f7792fa1d1f93ef0f3943853

由大腦成像技術發展而來的一些很是有趣的大腦視圖。 函數

先比之下,咱們只能說神經網絡受大腦啓發,就像北京的奧林匹克體育場受到鳥巢的啓發。這並不意味着奧林匹克體育場就是鳥巢,它只意味着在體育場的設計中存在一些鳥巢的元素。換句話說,大腦的某些元素存在於神經網絡的設計中,但它們比咱們想像的要少得多。工具

事實上,神經網絡與統計方法(如曲線擬合迴歸分析)更密切相關。在定量金融的背景下,我認爲重要的是要記憶,由於雖說「某種東西受到大腦的啓發」可能聽起來很酷,但這種說法可能會致使不切實際的指望或恐懼。欲瞭解更多信息,請參閱這篇文章性能

 4cc26845ebd04b21a5c805770265866b0284bc9d

曲線擬合也稱爲函數逼近,神經網絡經常用來逼近複雜的數學函數。學習

神經網絡不是弱統計

神經網絡由相互鏈接的節點層組成,單個節點被稱爲感知器,相似於多重線性迴歸。在多層感知器中(MLP),感知器被排列成層而且層與層彼此鏈接。在MLP中,有三種類型的層:即輸入層、隱藏層和輸出層。輸入層接收輸入模式,輸出層輸入映射的分類或輸出信號的列表。隱藏層調整這些輸入的權重,直到神經網絡的偏差最小化。

映射輸入:輸出

感知器能夠接收由n屬性組成的輸入向量z=(z1,z2,...Zn)。這個輸入向量稱爲輸入模式,這些輸入根據該感知器的權向量加權:v=(v1,v2...,vn)。在多元線性迴歸的背景下,這些能夠被認爲是迴歸係數或貝塔值。感知器的淨輸入信號net一般是輸入模式與其權重的總和乘積,其使用和積神經元網絡被稱爲求和單元。

net=ni1zivi

淨輸入信號減去誤差θ而後饋送到某個激活函數f()。激活函數一般是在(0,1)或(-1,1)之間有界的單調遞增函數(下文將進行進一步討論),另外激活函數能夠是線性或非線性的。

432fb6e6f3bcde6b1a36148ff89672cd3f62cfff 

下面顯示了一些神經網絡中經常使用的激活函數:

50dc0da20c32c4b6aea918c5314074be319c30c5 

最簡單的神經網絡就是隻有一個將輸入映射到輸出的神經元。給定一個模式p,這個網絡的目標是使輸出信號op的偏差相對於某些給定訓練模式tp某個已知目標值的偏差最小化。例如,若是神經元應該將p映射到-1,但其映射到了1,那麼神經元的偏差(如平方和距離測量)將爲4。

分層(Layering)

 c8ad21db1590a0d50553fc8315c45799ebab4cfa

如上圖所示,感知器被組織成層。第一層輸入感知器,從訓練集PT接收模式p。最後一層是映射到這些模式的預期輸出。

隱藏層是接收另外一層的輸出做爲輸入,而且輸出造成輸入到另外一層的隱藏層。那麼,這些隱藏層是作什麼的?其中一種技術解釋是它們提取輸入數據中的顯着特徵,這些特徵對輸出具備預測能力。這被稱爲特徵提取,並以某種方式執行與統計技術(如主成分分析)相似的功能。

深度神經網絡具備大量的隱藏層,而且可以從數據中提取更多的特徵。最近,深度神經網絡對於圖像識別問題表現得特別好。下面顯示了圖像識別環境下的特徵提取示例:

27a409bb0beae61ccb34d3c274009c299f4aac45

我認爲使用深度神經網絡所面臨的問題之一(除了過分擬合以外)是神經網絡的輸入幾乎老是被大量預處理。

學習規則(Learning Rules)

如前所述,神經網絡的目標是最小化一些偏差測量值ε。最多見的偏差指標是平方和偏差,儘管這一指標對異常值很敏感。

考慮到網絡的目標是最小化ε,咱們可使用優化算法來調整神經網絡中的權重。神經網絡最多見的學習算法是梯度降低算法,儘管可使用其餘更好的優化算法。梯度降低的工做方式是計算偏差相對於神經網絡中每一個層的權重的偏導數,而後向與梯度相反的方向移動(由於咱們想要最小化神經網絡的偏差)。經過最小化偏差,咱們能夠最大化神經網絡樣本的性能。

總結

在學術界,一些統計學家認爲,神經網絡是一個「懶惰分析師的弱統計」方式。但我認爲神經網絡表明了數百年統計技術的抽象,對於神經網絡背後統計數據的精彩解釋,我建議閱讀這篇文章。我贊成一些從業者喜歡將神經網絡視爲一個「黑匣子」,能夠在不花時間理解問題本質以及神經網絡是否合適的狀況下去研究神經網絡。在對於金融市場來講,我認爲神經網絡並不能完美的展現它的能力。由於市場是動態的,而神經網絡假定輸入模式的分佈隨着時間的推移是保持不變。

  數十款阿里雲產品限時折扣中,趕忙點擊領劵開始雲上實踐吧!

以上爲譯文。

本文由阿里云云棲社區組織翻譯。

文章原標題《artificial-neural-networks-some-misconceptions》,

做者:Jayesh Bapu Ahire  譯者:虎說八道,審校:。

 

 

 

 

 

文章爲簡譯,更爲詳細的內容,請查看原文

相關文章
相關標籤/搜索