【ACL20】讓笨重的BERT問答匹配模型變快!

作者:曹慶慶 Stony Brook University 在讀PhD 關注Efficient NLP、QA方向,詳見awk.ai 來自:夕小瑤的賣萌屋 背景 BERT、XLNet、RoBERTa等基於Transformer[1]的預訓練模型推出後,自然語言理解任務都獲得了大幅提升。問答任務(Question Answering,QA)[2]也同樣取得了很大的進步。 用BERT類模型來做問答或閱讀
相關文章
相關標籤/搜索