獨家 | 用spaCy蒸餾BERT模型

作者:YVES PEIRSMAN 翻譯:詹榮輝 校對:閆曉雨 本文約2800字,建議閱讀7分鐘。 本文爲大家介紹了用spaCy對BERT進行模型蒸餾,其性能也能接近BERT。 Photo on Blog 序列化和反序列化 遷移學習是自然語言處理領域最有影響力的最新突破之一。在其發佈不到一年的時間裏,谷歌的BERT及其後代(RoBERTa,XLNet等)主導了大多數NLP排行榜。雖然將這些龐大的模型
相關文章
相關標籤/搜索