Seq2Seq+Attention+Beam Search

開篇 Seq2Seq算是我NLP裏面接觸比較早的模型,它來源於機器翻譯,我用來做文本自動摘要。當然它在文本自動摘要領域的效果並不好。 Seq2Seq Seq2Seq本質上是條件生成模型(Conditional Generation),在現有的模型中,看圖說話(Image caption)也是類似的條件生成模型,它們的結構很類似,如下圖所示 都是Encoder-Decoder的結構。 下面我們看一下
相關文章
相關標籤/搜索