NLP經常使用模型之——Transformer

數據文摘與百度NLP聯合出品 編譯:張馳、毅航、Conrad、龍心塵 來源:https://jalammar.github.io/illustrated-transformer/ 編者按:前一段時間谷歌推出的BERT模型在11項NLP任務中奪得STOA結果,引爆了整個NLP界。而BERT取得成功的一個關鍵因素是Transformer的強大做用。谷歌的Transformer模型最先是用於機器翻譯任務
相關文章
相關標籤/搜索