Convolutional Sequence to Sequence Learning學習心得

1 爲什麼使用CNN學習序列表示 和RNN相比,CNN產生的背景向量固定 並且通過stacking 可以使 contex size 更大,如下圖。 和RNN相比,CNN產生的背景向量固定 並且通過stacking 可以使 contex size 更大,如上圖。 Hierarchy representation 如圖1,只需要三次CNN operation ,而需要 7 次 rnn 才能覆蓋整個句子
相關文章
相關標籤/搜索