RNN速度複習

RNN也沒有什麼神祕的 隱藏層的輸出 = 隱藏層激活函數(X輸入乘權重 + 上一層隱藏層or輸出層輸出*權重 + 隱藏層偏置) 輸出層的輸出 = 輸出層激活函數(隱藏層輸出*權重 + 輸出層偏置)   越到後面,前面的輸入對後面的影響會越弱(原因就是BP網絡的梯度消失)
相關文章
相關標籤/搜索