RNN:timestep、inputsize、Batchsize的區別

近期讀了一些關於LSTM的文章,但仍舊很難理解,關鍵就是不懂輸入、輸出是什麼,相比於圖像處理的CNN,RNN特別抽象。 昨晚花了很大的精力去理解「遺留狀態」這個概念,現在終於明白了一些,關鍵在timestep這個概念。 一、深入理解timestep 我們看到的所有的RNN結構圖,其實都是在一個timestep中的,而不是整個序列。(這句話很簡單,但真的是花了很長時間才領悟到的) 以下引用自知乎回答
相關文章
相關標籤/搜索