個人總結:從RNN到LSTM GRU 注意力機制

前言 RNN擅長解決的問題是連續的序列,且序列的長短不一,比如基於時間的序列:一段段連續的語音等。這些序列比較長,且長度不一,比較難直接拆分成一個個獨立的樣本通過DNN/CNN進行訓練。 而RNN由於其獨有的結構和優勢,能夠處理DNN/CNN所不能及的問題。 RNN的5種不同架構 one2one: 一個輸入對應一個輸出。 one2many: 一個輸入對應多個輸出,這個架構多用於圖片的對象識別,即輸
相關文章
相關標籤/搜索