ETH-DS3Lab at SemEval-2018 Task 7: Effectively Combining Recurrent and Convolutional Neural Networks for Relation Classification and Extraction
@theodoric008 推薦
Relation Extractiongit
本文來自蘇黎世聯邦理工學院 DS3Lab,文章針對實體關係抽取任務進行了很是系統的實驗,並在第十二屆國際語義評測比賽 SemEval 2018 的語義關係抽取和分類任務上得到冠軍。本文思路嚴謹,值得國內學者們仔細研讀。github
論文連接
https://www.paperweekly.site/papers/1833算法
Personalizing Dialogue Agents: I have a dog, do you have pets too?
@yihongchen 推薦
Dialogue System網絡
本文是 Facebook AI Research 發表於 NIPS 2018 的工做。論文根據一個名爲 PERSONA-CHAT 的對話數據集來訓練基於 Profile 的聊天機器人,該數據集包含超過 16 萬條對話。框架
本文致力於解決如下問題:ide
聊天機器人缺少一致性格特徵佈局
聊天機器人缺少長期記憶學習
聊天機器人常常給出模糊的迴應,例如 I don't know優化
論文連接
https://www.paperweekly.site/papers/1802
數據集連接
https://github.com/facebookresearch/ParlAI/tree/master/parlai/tasks/personachat動畫
DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding
@zhkun 推薦
Natural Language Understanding
本文是悉尼科技大學發表於 AAAI 2018 的工做,這篇文章是對 Self-Attention 的另外一種應用,做者提出一種新的方向性的 Attention,從而能更加有效地理解語義。
論文連接
https://www.paperweekly.site/papers/1822
代碼連接
https://github.com/shaohua0116/Group-Normalization-Tensorflow
DetNet: A Backbone network for Object Detection
@chlr1995 推薦
Object Detection
本文來自清華大學和 Face++,文章分析了使用 ImageNet 預訓練網絡調優檢測器的缺陷,研究經過保持空間分辨率和擴大感覺野,提出了一種新的爲檢測任務設計的骨幹網絡 DetNet。
實驗結果代表,基於低複雜度的 DetNet59 骨幹網絡,在 MSCOCO 目標檢測和實例分割追蹤任務上都取得當前最佳的成績。
論文連接
https://www.paperweekly.site/papers/1844
Imagine This! Scripts to Compositions to Videos
@chlr1995 推薦
Video Caption
本文以《摩登原始人》的動畫片斷做爲訓練數據,對每一個片斷進行詳細的文本標註,最終訓練獲得一個能夠經過給定腳本或文字描述生成動畫片斷的模型。
模型稱爲 Craft,分爲佈局、實體、背景,三個部分。雖然現階段模型存在着不少問題,可是這個研究在理解文本和視頻圖像高層語義方面有着很大的意義。
論文連接
https://www.paperweekly.site/papers/1838
Generating Diverse and Accurate Visual Captions by Comparative Adversarial Learning
@Aidon 推薦
Image Caption
本文來自華盛頓大學和微軟,文章提出一個基於 GAN 的 Image Caption 框架,亮點以下:
論文連接
https://www.paperweekly.site/papers/1842
Simultaneously Self-Attending to All Mentions for Full-Abstract Biological Relation Extraction
@robertdlut 推薦
Self-Attention
本文是 Andrew McCallum 團隊應用 Self-Attention 在生物醫學關係抽取任務上的一個工做。這篇論文做者提出了一個文檔級別的生物關係抽取模型,做者使用 Google 提出包含 Self-Attention 的 transformer 來對輸入文本進行表示學習,和原始的 transformer 略有不一樣在於他們使用了窗口大小爲 5 的 CNN 代替了原始 FNN。
論文連接
https://www.paperweekly.site/papers/1787
代碼連接
https://github.com/patverga/bran
Evaluation of Session-based Recommendation Algorithms
@Ttssxuan 推薦
Recommender System
本文系統地介紹了 Session-based Recommendation,主要針對 baseline methods, nearest-neighbor techniques, recurrent neural networks 和 (hybrid) factorization-based methods 等 4 大類算法進行介紹。
此外,本文使用 RSC1五、TMALL、ZALANDO、RETAILROCKET、8TRACKS 、AOTM、30MUSIC、NOWPLAYING、CLEF 等 7 個數據集進行分析,在 Mean Reciprocal Rank (MRR)、Coverage、Popularity bias、Cold start、Scalability、Precision、Recall 等指標上進行比較。
論文連接
https://www.paperweekly.site/papers/1809
代碼連接
https://www.dropbox.com/sh/7qdquluflk032ot/AACoz2Go49q1mTpXYGe0gaANa?dl=0
On the Convergence of Adam and Beyond
@chlr1995 推薦
Neural Network
本文是 ICLR 2018 最佳論文之一。在神經網絡優化方法中,有不少相似 Adam、RMSprop 這一類的自適應學習率的方法,可是在實際應用中,雖然這一類方法在初期降低的很快,可是每每存在着最終收斂效果不如 SGD+Momentum 的問題。
做者發現,致使這樣問題的其中一個緣由是由於使用了指數滑動平均,這使得學習率在某些點會出現激增。在實驗中,做者給出了一個簡單的凸優化問題,結果顯示 Adam 並不能收斂到最優勢。
在此基礎上,做者提出了一種改進方案,使得 Adam 具備長期記憶能力,來解決這個問題,同時沒有增長太多的額外開銷。
論文連接
https://www.paperweekly.site/papers/1841
Neural Baby Talk
@jamiechoi 推薦
Image Captioning
本文是佐治亞理工學院發表於 CVPR 2018 的工做,文章結合了 image captioning 的兩種作法:之前基於 template 的生成方法(baby talk)和近年來主流的 encoder-decoder 方法(neural talk)。
論文主要作法其實跟做者之前的工做"Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning"相似:在每個 timestep,模型決定生成究竟是生成 textual word(不包含視覺信息的鏈接詞),仍是生成 visual word。其中 visual word 的生成是一個自由的接口,能夠與不一樣的 object detector 對接。
論文連接
https://www.paperweekly.site/papers/1801
代碼連接
https://github.com/jiasenlu/NeuralBabyTalk
Context Encoding for Semantic Segmentation
@wanzysky 推薦
Semantic Segmentation
本文提出了一種與類別預測相關的網絡結構,使得在必定程度上下降了分割任務的難度。Channel attention 和空間 attention 造成互補,Global contextual loss 加強 context 信息,同時提升了小物體的分割精度。
論文連接
https://www.paperweekly.site/papers/1814
代碼連接
https://github.com/zhanghang1989/PyTorch-Encoding
Adaptive Graph Convolutional Neural Networks
@VIPSP 推薦
Convolutional Neural Network
圖卷積神經網絡(Graph CNN)是經典 CNN 的推廣方法,可用於處理分子數據、點雲和社交網絡等圖數據。Graph CNN 中的的濾波器大可能是爲固定和共享的圖結構而構建的。可是,對於大多數真實數據而言,圖結構的大小和鏈接性都是不一樣的。
本論文提出了一種有泛化能力且靈活的 Graph CNN,其可使用任意圖結構的數據做爲輸入。經過這種方式,能夠在訓練時爲每一個圖數據構建一個任務驅動的自適應圖(adaptive graph)。
爲了有效地學習這種圖,做者提出了一種距離度量學習方法。而且在九個圖結構數據集上進行了大量實驗,結果代表本文方法在收斂速度和預測準確度方面都有更優的表現。