自然語言處理(十)

自然語言處理(十) 1. 基本的Attention原理。 1.1模型的介紹 2. HAN的原理(Hierarchical Attention Networks)。 1. 基本的Attention原理。 最基本的seq2seq模型包含一個encoder和一個decoder,通常的做法是將一個輸入的句子編碼成一個固定大小的state,然後作爲decoder的初始狀態(當然也可以作爲每一時刻的輸入),但
相關文章
相關標籤/搜索