JavaShuo
欄目
標籤
論文閱讀:《Pretraining-Based Natural Language Generation for Text Summarization》
時間 2021-01-04
欄目
HTML
简体版
原文
原文鏈接
論文地址:https://arxiv.org/abs/1902.09243 簡介 該論文自稱是首個將BERT應用在文本生成任務上的文章,論文講解的非常的清晰詳細,模型的框架依然使用經典的encoder-decoder形式,encoder層使用了BERT,生成句子向量,decoder層思想比較新穎,分爲兩步,第一步先使用transformer生成一個基礎文摘,第二步將這個句子的每個詞都做一次mask
>>阅读原文<<
相關文章
1.
論文閱讀:Dual Supervised Learning for Natural Language Understanding and Generation
2.
論文閱讀-RankME: Reliable Human Ratings for Natural Language Generation
3.
論文閱讀:Text-to-Text Pre-Training for Data-to-Text Tasks
4.
Natural Language Processing[論文合集]
5.
Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems(閱讀理解)
6.
論文閱讀 《Text Summarization with Pretrained Encoders》
7.
論文閱讀 Multi-Task Deep Neural Networks for Natural Language Understanding
8.
【論文閱讀】 A Decomposable Attention Model for Natural Language Inference
9.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(一)
10.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(二)
更多相關文章...
•
RSS 閱讀器
-
RSS 教程
•
PHP 實例 - AJAX RSS 閱讀器
-
PHP教程
•
JDK13 GA發佈:5大特性解讀
•
Scala 中文亂碼解決
相關標籤/搜索
論文閱讀
CV論文閱讀
language
natural
summarization
generation
外文閱讀
論文解讀
閱讀
論文閱讀筆記
HTML
Thymeleaf 教程
PHP教程
Redis教程
文件系統
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
如何將PPT某一頁幻燈片導出爲高清圖片
2.
Intellij IDEA中使用Debug調試
3.
build項目打包
4.
IDEA集成MAVEN項目極簡化打包部署
5.
eclipse如何導出java工程依賴的所有maven管理jar包(簡單明瞭)
6.
新建的Spring項目無法添加class,依賴下載失敗解決:Maven環境配置
7.
記在使用vue-cli中使用axios的心得
8.
分享提高自己作品UI設計形式感的幾個小技巧!
9.
造成 nginx 403 forbidden 的幾種原因
10.
AOP概述(什麼是AOP?)——Spring AOP(一)
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
論文閱讀:Dual Supervised Learning for Natural Language Understanding and Generation
2.
論文閱讀-RankME: Reliable Human Ratings for Natural Language Generation
3.
論文閱讀:Text-to-Text Pre-Training for Data-to-Text Tasks
4.
Natural Language Processing[論文合集]
5.
Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems(閱讀理解)
6.
論文閱讀 《Text Summarization with Pretrained Encoders》
7.
論文閱讀 Multi-Task Deep Neural Networks for Natural Language Understanding
8.
【論文閱讀】 A Decomposable Attention Model for Natural Language Inference
9.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(一)
10.
論文閱讀:《A Primer on Neural Network Models for Natural Language Processing》(二)
>>更多相關文章<<