LSTM核心解讀

    LSTM的架構與RNN相比沒有根本上的不同,只是它的內部使用了一個不同的函數來計算隱藏狀態。 LSTM中的記憶單元稱爲cells,可以將其看做以先前狀態和當前輸入作爲輸入的黑盒子。 在LSTM內部,這些cells決定了要保留或者擦除哪些記憶。 然後把先前的狀態,當前的記憶和輸入組合在一起。 事實證明,這種類型的單元在捕獲長期依賴關係上非常有效。 LSTM計算公式: 包含兩個memory c
相關文章
相關標籤/搜索