對LSTM中每個batch都初始化隱含層的理解

不知道有沒有人和我有一樣疑惑 在LSTM相關的代碼中,爲什麼每個batch都會將隱藏層重新初始化, 這樣不會把以前訓練出來的參數丟掉嗎?? 比如 代碼來自GitHub  看了一些解釋是h與c是狀態,不是參數,每個batch中都需要初始化爲0,LSTM 中的參數是W,b。 網絡中訓練的是參數,不是狀態。 說真的。。。當時我沒怎麼看懂。。。 諮詢了實驗室的師兄後,我有了自己的理解   產生誤解的主要原
相關文章
相關標籤/搜索