推薦 :基於知識蒸餾的BERT模型壓縮

作者:孫思琦、成宇、甘哲、劉晶晶 本文約 1800字 ,建議閱讀 5分鐘 。 本文爲你介紹「耐心的知識蒸餾」模型。 在過去一年裏,語言模型的研究有了許多突破性的進展, 比如GPT用來生成的句子足夠以假亂真[1];BERT, XLNet, RoBERTa [2,3,4]等等作爲特徵提取器更是橫掃各大NLP榜單。但是,這些模型的參數量也相當驚人,比如BERT-base有一億零九百萬參數,BERT-la
相關文章
相關標籤/搜索