論文閱讀:An Empirical Study of Spatial Attention Mechanisms in Deep Networks

1、研究空間注意力機制。 (1)Transformer attention 處理自然語言序列的模型有 rnn, cnn(textcnn),但是現在介紹一種新的模型,transformer。與RNN不同的是,Transformer直接把一句話當做一個矩陣進行處理,要知道,RNN是把每一個字的Embedding Vector輸入進行,隱層節點的信息傳遞來完成編碼的工作。簡而言之,Transformer
相關文章
相關標籤/搜索