JavaShuo
欄目
標籤
論文閱讀:《Pretraining-Based Natural Language Generation for Text Summarization》
時間 2021-01-04
欄目
HTML
简体版
原文
原文鏈接
論文地址:https://arxiv.org/abs/1902.09243 簡介 該論文自稱是首個將BERT應用在文本生成任務上的文章,論文講解的非常的清晰詳細,模型的框架依然使用經典的encoder-decoder形式,encoder層使用了BERT,生成句子向量,decoder層思想比較新穎,分爲兩步,第一步先使用transformer生成一個基礎文摘,第二步將這個句子的每個詞都做一次mask
>>阅读原文<<
相關文章
1.
論文閱讀:Dual Supervised Learning for Natural Language Understanding and Generation
2.
論文閱讀-RankME: Reliable Human Ratings for Natural Language Generation
3.
論文閱讀:Text-to-Text Pre-Training for Data-to-Text Tasks
4.
Natural Language Processing[論文合集]
5.
Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems(閱讀理解)
6.
論文閱讀 《Text Summarization with Pretrained Encoders》
7.
論文閱讀 Multi-Task Deep Neural Networks for Natural Language Understanding
8.
【論文閱讀】 A Decomposable Attention Model for Natural Language Inference
9.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(一)
10.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(二)
更多相關文章...
•
RSS 閱讀器
-
RSS 教程
•
PHP 實例 - AJAX RSS 閱讀器
-
PHP教程
•
JDK13 GA發佈:5大特性解讀
•
Scala 中文亂碼解決
相關標籤/搜索
論文閱讀
CV論文閱讀
language
natural
summarization
generation
外文閱讀
論文解讀
閱讀
論文閱讀筆記
HTML
Thymeleaf 教程
PHP教程
Redis教程
文件系統
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
ubantu 增加搜狗輸入法
2.
用實例講DynamicResource與StaticResource的區別
3.
firewall防火牆
4.
頁面開發之res://ieframe.dll/http_404.htm#問題處理
5.
[實踐通才]-Unity性能優化之Drawcalls入門
6.
中文文本錯誤糾正
7.
小A大B聊MFC:神奇的靜態文本控件--初識DC
8.
手扎20190521——bolg示例
9.
mud怎麼存東西到包_將MUD升級到Unity 5
10.
GMTC分享——當插件化遇到 Android P
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
論文閱讀:Dual Supervised Learning for Natural Language Understanding and Generation
2.
論文閱讀-RankME: Reliable Human Ratings for Natural Language Generation
3.
論文閱讀:Text-to-Text Pre-Training for Data-to-Text Tasks
4.
Natural Language Processing[論文合集]
5.
Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems(閱讀理解)
6.
論文閱讀 《Text Summarization with Pretrained Encoders》
7.
論文閱讀 Multi-Task Deep Neural Networks for Natural Language Understanding
8.
【論文閱讀】 A Decomposable Attention Model for Natural Language Inference
9.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(一)
10.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(二)
>>更多相關文章<<