JavaShuo
欄目
標籤
BART: Denoising Sequence-to-Sequence Pre-training翻譯
時間 2021-01-12
標籤
模型-語言模型
简体版
原文
原文鏈接
摘要 我們介紹了BART,一種用於預訓練序列到序列模型的去噪自編碼器。通過(1)使用任意噪聲函數來對文本進行加噪,並(2)學習模型以重建原始文本來訓練BART。它使用基於標準Tranformer的神經機器翻譯架構,儘管它很簡單,但可以看作是BERT(由於雙向編碼器),GPT(具有從左至右解碼器)以及許多其他最近的預訓練方案的擴展。我們評估了多種加噪方法,發現通過隨機改變原始句子的排列順序並使用新的
>>阅读原文<<
相關文章
1.
Hackthebox-Bart
2.
Stacked Denoising Autoencoders (SDAE)
3.
ACL2020論文閱讀筆記:BART
4.
pretraining+fine tuning
5.
機器翻譯基礎
6.
Denoising Autoencod
7.
Denoising Autoencoder
8.
Contextual Word Representations and Pretraining
9.
翻譯
10.
翻譯哪家強?谷歌翻譯對比百度翻譯!!!
更多相關文章...
•
Eclipse 編譯項目
-
Eclipse 教程
•
Kotlin 使用命令行編譯
-
Kotlin 教程
•
Docker容器實戰(七) - 容器眼光下的文件系統
•
Scala 中文亂碼解決
相關標籤/搜索
pretraining
denoising
翻譯
機器翻譯
翻譯筆記
Medium翻譯
翻譯貼
官網翻譯
原創翻譯
iOS翻譯
MySQL教程
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
微軟準備淘汰 SHA-1
2.
Windows Server 2019 Update 2010,20H2
3.
Jmeter+Selenium結合使用(完整篇)
4.
windows服務基礎
5.
mysql 查看線程及kill線程
6.
DevExpresss LookUpEdit詳解
7.
GitLab簡單配置SSHKey與計算機建立連接
8.
桶排序(BucketSort)
9.
桶排序(BucketSort)
10.
C++ 桶排序(BucketSort)
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
Hackthebox-Bart
2.
Stacked Denoising Autoencoders (SDAE)
3.
ACL2020論文閱讀筆記:BART
4.
pretraining+fine tuning
5.
機器翻譯基礎
6.
Denoising Autoencod
7.
Denoising Autoencoder
8.
Contextual Word Representations and Pretraining
9.
翻譯
10.
翻譯哪家強?谷歌翻譯對比百度翻譯!!!
>>更多相關文章<<