注意力機制----seq2seq中的注意力機制

  自然語言處理中的sqe2seq模型是encoder,decoder模型 如:輸入英語,輸出法語 X是輸入,h是狀態 encoder的最後一個狀態h_m是decoder的輸入 seq2seq模型的缺點就是,如果句子太長,模型會漏掉一些信息,準確性會下降 但是,使用了注意力機制之後,準確率會保持在一個水平上(BLEU是機器翻譯模型的評價標準) 在encoder結束工作後,decoder與encod
相關文章
相關標籤/搜索