JavaShuo
欄目
標籤
閱讀筆記 -- ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS
時間 2021-01-15
標籤
預訓練
NLP
深度學習
欄目
HTML
简体版
原文
原文鏈接
本文的主要貢獻: 將BERT與類似於GAN的結構相結合,並輔以新的預訓練任務來做預訓練 – 在更少的參數量和數據下,效果超越BERT,並且僅用1/4的算力就達到了SOTA模型RoBERTa的效果: Introduction: 當下流行的MLM(Masked Language Modeling)方法會大大增加計算開銷,原因:模型只學到每個example中15%的tokens信息,而且有些token可
>>阅读原文<<
相關文章
1.
文獻閱讀筆記electra: pre-training text encoders as discriminators rather than generators
2.
【論文筆記electra】ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS
3.
《ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators》(ICLR-2020)論文閱讀
4.
ELECTRA論文閱讀筆記
5.
論文閱讀 《Text Summarization with Pretrained Encoders》
6.
論文:Variational Graph Auto-Encoders閱讀筆記
7.
Context Encoders: Feature Learning by Inpainting 閱讀筆記
8.
T5: Text-to-Text Transfer Transformer 閱讀筆記
9.
CenterNet:Objects as Points論文閱讀筆記
10.
文獻閱讀筆記:XLNet: Generalized Autoregressive Pretraining for Language Understanding
更多相關文章...
•
RSS 閱讀器
-
RSS 教程
•
PHP 實例 - AJAX RSS 閱讀器
-
PHP教程
•
Tomcat學習筆記(史上最全tomcat學習筆記)
•
JDK13 GA發佈:5大特性解讀
相關標籤/搜索
閱讀筆記
encoders
electra
pretraining
閱讀
讀書筆記
論文閱讀筆記
Apple文檔閱讀筆記
程序閱讀筆記
閱讀筆記:遞歸
HTML
MyBatis教程
Redis教程
Thymeleaf 教程
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
正確理解商業智能 BI 的價值所在
2.
解決梯度消失梯度爆炸強力推薦的一個算法-----LSTM(長短時記憶神經網絡)
3.
解決梯度消失梯度爆炸強力推薦的一個算法-----GRU(門控循環神經⽹絡)
4.
HDU4565
5.
算概率投硬幣
6.
密碼算法特性
7.
DICOMRT-DiTools:clouddicom源碼解析(1)
8.
HDU-6128
9.
計算機網絡知識點詳解(持續更新...)
10.
hods2896(AC自動機)
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
文獻閱讀筆記electra: pre-training text encoders as discriminators rather than generators
2.
【論文筆記electra】ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS
3.
《ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators》(ICLR-2020)論文閱讀
4.
ELECTRA論文閱讀筆記
5.
論文閱讀 《Text Summarization with Pretrained Encoders》
6.
論文:Variational Graph Auto-Encoders閱讀筆記
7.
Context Encoders: Feature Learning by Inpainting 閱讀筆記
8.
T5: Text-to-Text Transfer Transformer 閱讀筆記
9.
CenterNet:Objects as Points論文閱讀筆記
10.
文獻閱讀筆記:XLNet: Generalized Autoregressive Pretraining for Language Understanding
>>更多相關文章<<