15篇論文全面概覽BERT壓縮方法

作者 | Mitchell A. Gordon 譯者 | 孫薇 出品 | AI科技大本營(ID:rgznai100) 模型壓縮可減少受訓神經網絡的冗餘——由於幾乎沒有BERT或者BERT-Large模型可用於GPU及智能手機上,這一點就非常有用了。另外,內存與推理速度的提高也能節省大量成本。 本篇列出了作者所見過的BERT壓縮論文,以下表格中對不同方法進行了分類。 論文1:Compressing
相關文章
相關標籤/搜索