BERT: Bidirectional Encoder Representations from Transformers雙向Transformer用於語言模型 NAACL 2018

論文鏈接:https://arxiv.org/abs/1810.04805 tensorflow版本代碼鏈接:https://github.com/google-research/bert pytorch版本代碼鏈接:https://github.com/codertimo/BERT-pytorch 導讀 這篇論文由谷歌團隊發表於2018年的NAACL上《BERT: Pre-training of
相關文章
相關標籤/搜索