谷歌豐田聯合成果ALBERT瞭解一下:新輕量版BERT,參數小18倍,性能依舊SOTA

作者 | Less Wright 編譯 | ronghuaiyang 來源 | AI公園(ID:AI_Paradise) 【導讀】這是來自Google和Toyota的新NLP模型,超越Bert,參數小了18倍。 你以前的NLP模型參數效率低下,而且有些過時。祝你有美好的一天。 谷歌Research和豐田技術研究所(Toyota Technological Institute)聯合發佈了一篇新論文,
相關文章
相關標籤/搜索