JavaShuo
欄目
標籤
BART: Denoising Sequence-to-Sequence Pre-training翻譯
時間 2021-01-12
標籤
模型-語言模型
简体版
原文
原文鏈接
摘要 我們介紹了BART,一種用於預訓練序列到序列模型的去噪自編碼器。通過(1)使用任意噪聲函數來對文本進行加噪,並(2)學習模型以重建原始文本來訓練BART。它使用基於標準Tranformer的神經機器翻譯架構,儘管它很簡單,但可以看作是BERT(由於雙向編碼器),GPT(具有從左至右解碼器)以及許多其他最近的預訓練方案的擴展。我們評估了多種加噪方法,發現通過隨機改變原始句子的排列順序並使用新的
>>阅读原文<<
相關文章
1.
Hackthebox-Bart
2.
Stacked Denoising Autoencoders (SDAE)
3.
ACL2020論文閱讀筆記:BART
4.
pretraining+fine tuning
5.
機器翻譯基礎
6.
Denoising Autoencod
7.
Denoising Autoencoder
8.
Contextual Word Representations and Pretraining
9.
翻譯
10.
翻譯哪家強?谷歌翻譯對比百度翻譯!!!
更多相關文章...
•
Eclipse 編譯項目
-
Eclipse 教程
•
Kotlin 使用命令行編譯
-
Kotlin 教程
•
Docker容器實戰(七) - 容器眼光下的文件系統
•
Scala 中文亂碼解決
相關標籤/搜索
pretraining
denoising
翻譯
機器翻譯
翻譯筆記
Medium翻譯
翻譯貼
官網翻譯
原創翻譯
iOS翻譯
MySQL教程
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
說說Python中的垃圾回收機制?
2.
螞蟻金服面試分享,阿里的offer真的不難,3位朋友全部offer
3.
Spring Boot (三十一)——自定義歡迎頁及favicon
4.
Spring Boot核心架構
5.
IDEA創建maven web工程
6.
在IDEA中利用maven創建java項目和web項目
7.
myeclipse新導入項目基本配置
8.
zkdash的安裝和配置
9.
什麼情況下會導致Python內存溢出?要如何處理?
10.
CentoOS7下vim輸入中文
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
Hackthebox-Bart
2.
Stacked Denoising Autoencoders (SDAE)
3.
ACL2020論文閱讀筆記:BART
4.
pretraining+fine tuning
5.
機器翻譯基礎
6.
Denoising Autoencod
7.
Denoising Autoencoder
8.
Contextual Word Representations and Pretraining
9.
翻譯
10.
翻譯哪家強?谷歌翻譯對比百度翻譯!!!
>>更多相關文章<<