RNN, LSTM簡介

RNN 長期依賴的問題 LSTM RNN f(x)=12x2+xy+12y2 f ( x ) = 1 2 x 2 + x y + 1 2 y 2 人們的每次思考並不都是從零開始的。比如說你在閱讀這篇文章時,你基於對前面的文字的理解來理解你目前閱讀到的文字,而不是每讀到一個文字時,都拋棄掉前面的思考,從頭開始。你的記憶是有持久性的。 傳統的神經網絡並不能如此,這似乎是一個主要的缺點。例如,假設你在看
相關文章
相關標籤/搜索