引言:這裏重點介紹傳統計算機上能實現的量子神經網絡,例如基於多層激勵函數的量子神經網絡,日本學者 Matsui 等人提出的神經網絡模型等等,同時介紹其它量子神經網絡模型。算法
1.多層激勵函數的量子神經網絡微信
N.B.Karayiannis 等人 1997 年提出多層激勵函數的量子神經網絡,而且從理論分析和實驗驗證了這種神經網絡在模式分類時具備的內在模糊性,它能檢測到數據中固有的模糊性和不肯定性,對兩類交叉的數據樣本,這種神經網絡能以必定的隸屬度將其同時分在兩類中。網絡
基於多層激勵函數的量子神經網絡是 3 層的網狀結構,輸入層,隱層,輸出層,其中輸入層和輸出層與傳統的前向神經網絡無異,而隱層的量子神經元借鑑了量子理論中量子態疊加的思想,激勵函數表示爲多個 sigmoid 函數的線性疊加,稱之爲多層激勵函數。這樣一個隱層神經元就能表示更多的狀態或量級,而一個傳統的 sigmoid 函數只能表示兩個狀態或量級,疊加的每個 sigmoid 函數有多個不一樣的量子間隔,能夠調整量子間隔,能使不一樣的數據映射到不一樣的量級或階梯上,從而使分類有更多的自由度。下圖爲量子神經網絡和傳統神經網絡激勵函數示意圖。函數
量子神經網絡的學習分兩步,一是對權值的調整,使輸入數據對應到不一樣的類空間中;學習
二是對隱層的量子神經元的量子間隔進行調整,體現數據的不肯定性。測試
因爲這種量子神經網絡固有的模糊特性,它已經成功地應用於模式分類方面,特別是在處理兩類有交叉的數據樣本時,更顯示出它的優越性。ui
2. Qubit 神經元模型人工智能
日本的 Nobuyuki Matsui 等人在 2000 年提出了用量子比特表示神經元狀態的網絡模型。spa
在這種網絡模型中,網絡的拓撲結構和傳統的神經網絡相同,下圖是一個三層的量子神經網絡,看起來和傳統的神經網絡無異。可是,它的神經元信息表示、權值、激勵函數等都與傳統的神經網絡不一樣。.net
這種量子神經網絡的主要特色是用量子態相位表示信息,網絡權值的做用是對相位進行旋轉變化,激勵函數對相位可控非門操做,經過改變量子態達到運算的目的。這種結構改變了傳統的網絡模式,可是它的輸入只能是 0、 1 值,輸出是機率幅值,限制了它的應用。目前的實驗僅限於邏輯門操做、奇偶校驗等。
3. 多宇宙的量子神經網絡模型
Tammy 等人從光學的雙縫干涉實驗和量子力學中多宇宙的觀點獲得啓發,提出了多宇宙的量子神經網絡模型。多宇宙的量子神經網絡是多個類似網絡組件的疊加。在訓練時不一樣的輸入模式對不一樣的網絡組件進行訓練,測試時不一樣的輸入會有不一樣的網絡組件來對輸入信息處理。也就是量子神經網絡的網絡組件的線性疊加,當有輸入時,就會破壞網絡組件的疊加,使其塌陷到某個網絡組件上,而後神經網絡就經過這一組件對輸入數據進行處理。
這種模型的特色是:
①訓練時間短:因爲對每一種輸入模式,量子神經網絡中都有與之對應的網絡組件,這樣僅須要訓練對應的網絡組件,與其它的網絡組件無關,各個網絡組件的學習能夠並行進行,減小了神經網絡的學習時間;
②可消除災變性失憶現象:傳統的神經網絡在對樣本訓練時,不一樣模式的樣本將致使權值朝向不一樣的方向變化,網絡學習新的樣本信息時,會「忘掉」之前學到的信息,使權值調節產生振盪(災變性失憶現象)。而量子神經網絡對於不一樣的樣本數據,會有不一樣的網絡組件與之對應,網絡的調節只限於輸入模式對應的網絡組件,這樣不一樣的模式的學習之間互不相干,避免了災變性失憶現象的發生。
目前這種神經網絡在學習算法、坍塌算法、具體的網絡結構方面尚未突破性的研究。
首先在學習算法方面,要解決的問題是採用什麼方法訓練網絡,使不一樣的訓練數據對應到不一樣的網絡組件上。其次,網絡在處理數據時應該如何根據輸入數據使量子神經網絡坍塌到對應的組件上。
4.其它量子神經網絡模型
美國的 Berhman 等人在量子神經網絡方面的工做,主要集中於量子計算機的研究,他們在 SQID 物理設備上( Superconducting quantum interference devices)經過神經網絡算法控制培養基上量子點分子外界的勢場、核聲子等,使量子狀態不斷變化,直到達到所需的量子狀態,提出了時間的量子點分子神經網絡。
美國的 Dan 提出了量子聯想記憶模型,改進了 Grover 搜索算法,代表量子存儲器具備指數級的存儲容量。這種神經網絡模型不具備傳統的網絡結構,信息的載體是量子器件,其主要特色是量子聯想存儲器具備指數級的存儲容量, n 位的量子寄存器同時存儲 2的n次方個不一樣狀態的信息。實現的思想是,經過學習算法,使量子存儲器存儲特定信息體如今波函數的變化上,而後,聯想記憶過程就是經過搜索算法中的幺正變換做用於波函數,並最終使要查詢的信息的機率增大,使觀測者能以較大的機率觀測到須要的信息。
巴西的 Li Weigang 利用量子的隱形傳態提出了糾纏神經網絡。
本文分享自微信公衆號 - AI MOOC人工智能平臺(AIMOOC_XLAB)。
若有侵權,請聯繫 support@oschina.cn 刪除。
本文參與「OSC源創計劃」,歡迎正在閱讀的你也加入,一塊兒分享。