所有你要知道的 BERT 模型壓縮方法,都在這裏!

模型壓縮可減少受訓神經網絡的冗餘,由於幾乎沒有 BERT 或者 BERT-Large 模型可直接在 GPU 及智能手機上應用,因此模型壓縮方法對於 BERT 的未來的應用前景而言,非常有價值。 軟件工程師 Mitchell A. Gordon 在本文中總結了所有的 BERT 壓縮模型的方法,並對該領域的論文進行羅列及分類,我們下面來看: 一、壓縮方法 1、剪枝——即訓練後從網絡中去掉不必要的部分。
相關文章
相關標籤/搜索