論文閱讀:How to Construct Deep Recurrent Neural Networks

原文地址 對一般前向傳播網絡的深度定義是不適用於RNN的,因爲RNN的時序結構,當它依時序展開時,只要t夠大,那麼依照一般定義這都是一個deep RNN。 但是從上圖可以看出,在一個單獨的time step中,普通RNN的結構無論是input-to-hidden( xt→ht )還是hidden-to-hidden( ht−1→ht )還是hidden-to-output( ht→yt ),他們都
相關文章
相關標籤/搜索