自然語言處理 | (24) RNN、RNN變體、Seq2Seq、Attention機制簡介

原文地址 本篇博客轉載自知乎,原文見上面的鏈接。本文主要利用圖片的形式簡單的介紹了經典RNN、RNN幾個重要變體,以及Seq2Seq模型、Attention機制。旨在讓大家有個初步的印象,之後的幾篇博客還會更詳細的展開。 目錄 一、單層網絡 二、經典的RNN結構(N vs. N) 三、N vs. 1 四、1 vs. N 五、 N vs. M 六、Attention機制 七、總結 一、單層網絡 在R
相關文章
相關標籤/搜索