2019-04-08 16:59:23算法
1949年,Hebb提出了關於神經網絡學習機理的「突觸修正」的假設:當神經元的前膜電位、後膜電位同時爲正時,突觸傳導增強;電位相反時,突觸傳導減弱。根據次假設定義權值ω的調整方法,稱該方法爲Hebb學習規則。網絡
Hebb學習規則中,學習信號等於神經元的輸出:函數
r=f(WTj*X)學習
權值向量W調整公式:spa
ΔW=η*f(WTj*X)*X設計
權值向量W的分向量Δωij調整公式:blog
Δωj=η*f(WTj*X)*xj,j=0,1,2,…,nip
爲保證Hebb learning rule 的學習效率,對權值設置飽和值。ci
for examle:it
1 參數設置
輸入:X1=[1,-2,1.5]T、X1=[1,-0.5,-2]T、X1=[0,-1,-1]T,學習率 η=1,初始化權值W0=[0 0 0]T,傳遞函數使用hardlim。
2 計算步驟(即權值調整過程)
權值W1=W0+hardlim(W0T*X1)*X1=[1 -2 1.5];
權值W2=W1+hardlim(W1T*X2)*X2=[1 -2 1.5];
權值W3=W2+hardlim(W2T*X3)*X3=[1 -3 0.5];
1 感知器的學習規則
r=dj-oj
式中,dj爲指望輸出,oj=f(WjT*X)
感知器採用符號函數做爲轉移函數,則
f(WjT*X)=sgn(WjT*X)={1,WjT*X≥0;0,WjT*X<0}
由上式得權值調整公式
ΔWj=η*[dj-sgn(WjT*X)]*X
Δωj=η*[dj-sgn(WjT*X)]*xj
2 Hebb learning principle 和 Perceptron learning principle的不一樣之處
Hebb learning principle 採用輸出結果做爲權值調整的組成部分,Perceptron learning principle 採用偏差做爲權值調整的組成部分。
感知器學習規則訓練的網絡,其分類的判決邊界每每距離各分類模式靠的比較近,這使得網絡對噪聲比較敏感;
LMS Learing Rule是均方偏差最小,進而使得判決邊界儘量遠離分類模式,加強了網絡的抗噪聲能力。
但LMS算法僅僅適用於單層的網絡訓練,當須要設計多層網絡時,須要尋找新的學習算法,for example,Back Progation Nerual Network Algorithm。
1962年,Bernard Widrow 和 Marcian Hoff 提出Widrow-Hoff Learning Princple,該方法的特色是使實際神經元輸出與指望輸出之間的平方差最小,所以又稱爲Least Mean Square Erorr Princple。
LMS調整規則應用較爲普遍:
1 信號處理
2 BP算法的引領者
LMS的學習信號
r=tj-WjT*X
權值調整量
ΔWj=η*(tj-WjT*X)*X
權值份量調整
Δωj=η*(tj-WjT*X)*xj,j=0,1,2,...,n
tj表示指望輸出,WjT*X表示實際輸出
均方差(MSE),是預測數據與原始數據的偏差平方的和的均值
MSE=(∑(ti-ai)2)/n,其中i=1,2,...,n
Matlab中存在該函數,能夠直接調用,e=[1 2 3],perf=mse(e)=(12+22+32)/n=4.66666667。
1 參數設置
神經網絡結構函數 Purelin