序列模型中的注意力機制

現在很多研究的NLP問題都可以轉換成一個Sequence to Sequence模型來解決,比如說機器翻譯,智能問答,語音識別等。 Sequence to Sequence模型由一個encoder和一個decoder組成,encoder完成編碼工作,將不同的輸入編碼成一個定長的向量,decoder則完成解碼工作,對編碼器的結果進行解碼輸出,例如在中英文翻譯中,首先編碼器將中文編碼成一個向量表示,接
相關文章
相關標籤/搜索