人類智能在宏觀上有心理學,微觀上有分子生物學等學科研究。但每一個方向研究到必定階段就停滯了,沒有哪一個學科能告訴咱們:爲何能有智能,如何才能產生智能。即便已經瞭解了大腦的不少知識,人類智能仍然是個黑盒子。算法
對黑盒的研究,要麼從外部觀察其行爲,而後來模擬其結構,可稱爲自上而下的研究;要麼猜想其結構,而後從外部的輸入輸出來驗證其行爲,可稱爲自下而上的研究。題目所說的自上而下仍是自下而上便是從哪一個方向來研究強人工智能問題。網絡
宏觀上研究的成果中,最顯而易見的就是類人機器人。這類機器人從行爲、語言、表情等方面來模擬人。若是最終能讓人以爲這些機器人是真人,那麼這個方向就算是成功了。固然,從如今的成果來看還不成功。另外一方面是深藍、沃森這樣的依靠在下棋、回答問題等方面來打敗人類智能,從而證實本身能力。從這些特定的領域上來看,它們是比較成功的。但就算是把上面提到的全部方面都合到一塊兒,也很難認爲他們達到了人類的能力。機器學習
微觀上的研究,是從感知器的結構被提出來後開始的。今後產生了如今的人工神經網絡、機器學習等大量的算法和研究成果,解決了不少實際問題。從微觀上出發,證實了它們從微觀結構上模擬的優點,但須要花費大量時間創建問題模型。函數
由此看來,當前自上而下和自下而上的方法都有了必定的成果。但經過現有方法來構建強人工智能,成本是很是巨大的,幾乎不可實現。學習
有些狀況下,物體在不多數量下的性質和龐大數量下的性質相差很大。這也是複雜系統研究的難點。從不一樣的層級進行研究,可以發現不一樣的規律,解決不一樣的問題。這裏提到了層級的概念,這裏的層級和上一篇文中分層的層次不同。上文的層次是神經網絡中具體的層次。本文的層級是因爲研究對象數量或其它性質的巨大不一樣,從而產生了看上去很不同的行爲。對不一樣層級的行爲能概括出不一樣的規律,這些規律可以幫助咱們有效的理解和預測研究對象的行爲。好比低速下的牛頓力學和光速下的相對論,因爲速度的巨大差別,在低速下得出了簡化後的牛頓力學,其幫助了咱們認識了低速世界。後來的相對論不只概括了高速時的規律,在低速下也能適用。再好比物質在原子、分子層面體現出的是基本做用力;在納米層級又體現出新的性質;在宏觀上人能直接觀察的規模上,又組成了萬物,造成了更復雜、更多的性質。這看起來和智能是很相似的,首先神經元細胞有本身的生物性質;大量神經元細胞(平方釐米級)組合在一塊兒,能夠被觀察到協同進行某種活動;整個大腦則產生了咱們所能感知的智能;而整我的類社會,則儲存了人類的全部知識、習慣,產生了羣體智能和行爲。這種羣體智能也不是一個大腦能有效理解和預測的。人工智能
每一層級的規律實際上是其低一層規律的規模化結果,其又是上一層規律的基礎。若是要對整個系統有全面的瞭解,就要從某一層級出發,往上或往下研究,得出規律。若是說一個神經元細胞是一個的層級,而整我的腦也是一個層級。在這兩層之間還有多少層呢?自上而下的研究方法給出了人腦的功能區的劃分,這個做爲一個層次。而自下而上的方法給出了人工神經網絡的層次,這個層次可以處理單個問題或叫作模式。這兩方面的研究到這基本都停滯了。這中間必定還有一個或若干個層次可以幫助咱們理解智能的規律。對象
再來看看題設的問題,若是必定要給出一個答案的話,我會傾向於自下而上的研究。先說說自下而上研究的優點。自下而上的研究看起來更像是白盒研究,經過模擬來了解智能真正的機制。而自上而下的研究像是黑盒研究,更多的須要去猜想或者嘗試來達到一樣的功能。若是可以猜出結構固然最好,但若是黑盒很是複雜,猜出結構是很難的。模仿其複雜行爲也是很困難的。但同時,自上而下的研究也很是具備指導意義,其瞭解了人腦不一樣區域是有分工的,輸入輸出的處理使用了大部分大腦。自上而下的研究也積累了不少經驗,能夠用來驗證強人工智能的能力。繼承
強人工智能的物質基礎和神經元細胞是不同的,咱們不是經過製造真正的神經元細胞來製造強人工智能。因此研究的最底層級不是直接映射到神經元細胞,要把神經元細胞中與智能相關的一些特性抽取出來,以便在其它物質基礎上構造智能。須要區分細胞的哪些行爲是和智能相關的,哪些行爲是和其物質基礎相關的。有些因素也許看上去和物質基礎相關,但其可能也影響了智能的產生。如下是一些神經元細胞特性的猜想和討論,能夠有助於把和智能產生相關的部分抽取出來。效率
1.神經元細胞的大部分活動是依靠化學反應,有些是不可逆反應。這個過程須要不斷的反應物質和能量的供給,一旦能量跟不上,其反應可能變得遲鈍。在計算機中,能量的供給是依靠電子的流動,不須要物質的化學變化,因此能量供給是高效的。但神經細胞對大量刺激會變得遲鈍這樣的特性也許是產生記憶效果的一個因素。同時,因爲細胞內物質濃度的變化,可能會引起下一級反應,從而產生神經元細胞的變化,這也多是產生記憶效果的因素。總之,從這一點來看,神經元的記憶是能夠經過其輸入輸出的變化來調整的,不必定須要經過全局的目標函數來調整。基礎
2.上一點中提到的物質、能量短缺的影響,不只會影響神經元細胞自己,也會對周圍細胞活動產生抑制。這也是一些選舉小範圍中最活躍神經元算法的物質基礎。這個特性有利於減少局部過於活躍,從而產生振盪或弱化全局的特徵。
3.神經元的樹突生長是比較慢的,可能要通過大量的刺激,才能產生有效的突觸。強人工智能也許能夠經過外部開關來判斷是否處於訓練時間,來調整鏈接的創建速度,從而提升學習效率。
4.神經元細胞的空間結構。大腦皮層的皺褶展開後是一個平面,這個平面上的灰質細胞也有必定的層數。對於灰質細胞的層次的做用,也產生了有意思的算法,好比Hierarchal Temporal Memory(HTM,這是我看到的最有趣的一個算法)。因爲人類的空間是三維的,因此物理結構最複雜也就是三維結構。但考慮到能量供給和信息傳輸,神經元細胞只能達到相似於二維的結構。這時候就產生了神經元細胞相鄰的不少特色。假設神經元細胞樹突的長度平均是有限的,並且每一個神經元的大部分樹突是比較短的,這樣相鄰的神經元之間的交流就更多,長距離的就比較少。因此相鄰細胞之間處理的信息更相似。
5.細胞個體的可靠性是沒有計算機高的,因此神經元細胞須要更強的冗餘性。相鄰細胞之間須要經過相互備份來產生冗餘。所謂備份、即它們的輸入輸出狀態、以及反應的閾值都比較類似。類似值高,則變化所須要的刺激和能量都高,一方面表明了學習難度的增大,另外一方面也表明記憶的強度很高。反之,則學習難度低,但容易由於覆蓋或神經細胞死亡產生遺忘。強人工智能也許能夠經過減小相鄰細胞的類似性來縮小網絡的規模,並用別的方式來控制記憶強度。
6.神經元細胞的生長分化。神經元細胞是在胚胎髮育的過程當中產生的,因此有從無到有的過程。在當前神經網絡的研究中,網絡的初始化和如何決定規模都是須要考慮的問題。而在大腦的初始化依賴於細胞的分裂。在神經細胞的分裂過程當中,新的細胞會繼承原先細胞的突觸。這個過程不只保留了記憶,同時保持了各類輸入輸出的連通性。
總而言之,從神經細胞級的研究,可以找到不少有效的線索和特色,這些是上一個層級規律的基礎。但這些特性既有和智能產生相關的部分,又有和生物體運轉相關的部分。如何對這些特性進行篩選,從而得出細胞層級的智能基礎,對於研究上一層級是很是重要的。因爲智能的複雜性,單純自下而上的研究容易發散到不正確的道路。在各類算法試驗的過程當中,須要自上而下所獲得的一些經驗來驗證是否走到了正確的路線上。
以上的文字表明做者的觀點和想法。
因爲人類的記憶和連通性的限制,可能會將別人的觀點和想法當成本身的、或有人會有一樣的想法,沒有關係的,有問題你們一塊兒來討論學習,詳情看我主頁哦!