自然語言處理之Transformer

自然語言處理之Transformer   在上一篇文章,我介紹了attention,以及attention機制與seq2seq模型的簡單結合。seq2seq模型適用於問答、閱讀理解、機器翻譯、語言生成等自然語言處理的任務,結合attention之後,在2017年提出self-attention,形成現在所說的transformer模型。transformer模型相比於seq2seq+attenti
相關文章
相關標籤/搜索