長的短期記憶網絡

RNN中參數就是W,需要學到的東西很多,W過載,只能記住最近的信息。 一個句子必不可少的操作就是分詞,一直傳遞到最後,這就意味着最後的結果包含整個句子的信息。 LSTM的最後一個輸出值作爲多層神經網絡的輸入。。。。 CNN用於文本分類,需要進行一些妥協(因爲一般的句子有時候長,有時候短,沒法構造一個固定的圖像,所以需要將輸入變換爲固定大小的---that's圖像) 一維卷積---從上到下--逐次滑
相關文章
相關標籤/搜索