論文賞析[EMNLP19]如何在Transformer中融入句法樹信息?這裏給出了一種解決方案

論文地址:Tree Transformer: Integrating Tree Structures into Self-Attention 介紹 之前其實有很多工作將句法信息融入到了RNN中,例如ON-LSTM和PRPN,用來隱式建模句法結構信息,同時提升語言模型的準確率。本文嘗試將句法信息融入到Transformer中,用來賦予attention更好的解釋性。同時可以無監督的預測出句子的句法樹
相關文章
相關標籤/搜索