BERT家族:ALBERT

ALBERT 論文:《ALBERT: A Lite BERT For Self-Supervised Learning Of Language Representations》微信 論文地址:https://arxiv.org/pdf/1909.11942網絡 做者/機構:google性能 年份:2019.9大數據 採用了全新的參數共享機制,反觀其餘升級版BERT模型,基本都是添加了更多的預訓練任
相關文章
相關標籤/搜索