【李宏毅】機器學習 筆記10(RNN——循環神經網絡(Recurrent Neural Network)(下))

這一節講RNN如何learning: 下面講如何定義loss,舉一個例子: RNN同樣可以用gradient descent來train: 因爲同樣的sequent在不同的時間點會被使用:   input(多個)-->output(一個): 多對多: 出現疊詞時,用CTC區分: 一些詞的順序可以被忽略: encoder和decoder一起train: RNN vs Structured Learn
相關文章
相關標籤/搜索