BERT家族:TinyBERT

TinyBERT 論文:《TINYBERT:DISTILLINGBERTFORNATURALLAN-GUAGEUNDERSTANDING》微信 論文地址:https://arxiv.org/pdf/1909.10351框架 做者/機構:華科+華爲諾亞方舟實驗室學習 年份:2019.9編碼 TinyBert經過對Bert 編碼器中的Transformer進行壓縮,使用兩段式學習框架在精度容許範圍內節
相關文章
相關標籤/搜索