JavaShuo
欄目
標籤
超越 BERT 和 GPT,微軟亞洲研究院開源新模型 MASS!
時間 2020-12-31
欄目
Microsoft
简体版
原文
原文鏈接
自 2018 年以來,預訓練無疑是自然語言處理(NLP)領域中最熱門的研究課題之一。通過利用 BERT、GPT 和 XLNet 等通用語言模型,該領域的研究者們在自然語言理解方面已經取得了許多重大的突破。然而,對於序列到序列的自然語言生成任務,這些主流的預訓練方法並沒有帶來顯著的改進,對此,微軟亞洲研究院提出了一個全新的通用預訓練方法——MASS,在該任務中可以得到比 BERT 和 GPT 更好的
>>阅读原文<<
相關文章
1.
EMNLP 2019 丨微軟亞洲研究院精選論文解讀
2.
ICLR 2020丨微軟亞洲研究院精選論文解讀
3.
ECCV 2020 | 微軟亞洲研究院精選論文摘錄
4.
CVPR 2020丨微軟亞洲研究院精選論文一覽
5.
超越BERT、GPT------屏蔽序列到序列預訓練MASS(原理篇)
6.
虛擬屏幕與雲計算————微軟亞洲研究院
7.
微軟亞洲研究院:可持續發展的人工智能
8.
讓AI自動修復程序中的bug:微軟亞洲研究院新研究 | 附論文
9.
今日宜表白|喜歡微軟亞洲研究院的N個理由
10.
CVPR 2019 | 微軟亞洲研究院 7 篇精選論文解讀
更多相關文章...
•
ASP.NET MVC - 模型
-
ASP.NET 教程
•
XSL-FO 軟件
-
XSL-FO 教程
•
委託模式
•
PHP開發工具
相關標籤/搜索
研究院
AI研究院
mass
超越
bert
gpt
研究
超微
Redis源碼研究
Microsoft
XLink 和 XPointer 教程
PHP 7 新特性
NoSQL教程
靜態資源
開發工具
微服務
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
1.2 Illustrator多文檔的幾種排列方式
2.
5.16--java數據類型轉換及雜記
3.
性能指標
4.
(1.2)工廠模式之工廠方法模式
5.
Java記錄 -42- Java Collection
6.
Java記錄 -42- Java Collection
7.
github使用
8.
Android學習筆記(五十):聲明、請求和檢查許可
9.
20180626
10.
服務擴容可能引入的負面問題及解決方法
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
EMNLP 2019 丨微軟亞洲研究院精選論文解讀
2.
ICLR 2020丨微軟亞洲研究院精選論文解讀
3.
ECCV 2020 | 微軟亞洲研究院精選論文摘錄
4.
CVPR 2020丨微軟亞洲研究院精選論文一覽
5.
超越BERT、GPT------屏蔽序列到序列預訓練MASS(原理篇)
6.
虛擬屏幕與雲計算————微軟亞洲研究院
7.
微軟亞洲研究院:可持續發展的人工智能
8.
讓AI自動修復程序中的bug:微軟亞洲研究院新研究 | 附論文
9.
今日宜表白|喜歡微軟亞洲研究院的N個理由
10.
CVPR 2019 | 微軟亞洲研究院 7 篇精選論文解讀
>>更多相關文章<<