Bert學習資料

https://zhuanlan.zhihu.com/p/49271699git


Bert是近年來NLP重大進展的集大成者. 目前絕大部分NLP任務均可以採用相似的兩階段模式直接去提高效果github

Transformer是谷歌在17年作機器翻譯任務的「Attention is all you need」的論文中提出的,引發了至關大的反響,不少研究已經證實了Transformer提取特徵的能力是要遠強於LSTM的.app

Transformer在將來會逐漸替代掉RNN成爲主流的NLP工具,RNN一直受困於其並行計算能力,這是由於它自己結構的序列性依賴致使的.ide

CNN在NLP裏一直沒有造成主流,CNN的最大優勢是易於作並行計算,因此速度快,可是在捕獲NLP的序列關係尤爲是長距離特徵方面自然有缺陷工具


https://zhuanlan.zhihu.com/p/37601161  深度學習中的注意力模型學習

https://jalammar.github.io/illustrated-transformer/  transformer資料spa

相關文章
相關標籤/搜索