NLP 高引論文解讀兩篇 | BERT模型、SQuAD數據集

本文是對兩篇近年來自然語言處理(NLP)領域高引論文的解讀。   1. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 作者:Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova(Google AI) 論文出處:Pro
相關文章
相關標籤/搜索