降低預測過程計算成本,這些NLP模型壓縮方法要知道

編譯 | 凱隱 出品 | AI科技大本營(ID:rgznai100) 近年來,基於谷歌Transformer的語言模型在神經機器翻譯,自然語言推理和其他自然語言理解任務上取得了長足進展。 通過多種語言模型的平均損失進行自我監督預訓練,使得在大範圍的語料庫上訓練的模型可以在許多任務中提高下游性能。然而,大量的參數和計算量仍然是阻礙BERT和其衍生模型部署的難點。 值得慶幸的是,在過去的兩年裏,我們已
相關文章
相關標籤/搜索