圖到文本生成中的結構信息保持

本論文由騰訊 AI Lab 主導,和廈門大學、西湖大學合做完成。做者提出基於「多視角重建」的損失函數提高文本生成的質量和忠實度,與此同時並無增長任何模型參數。函數

Structural Information Preserving for Graph-to-Text Generation性能

圖到文本生成(graph-to-text generation)任務有着普遍的潛在應用,而且已經被應用在機器翻譯等任務中。下圖顯示了兩種圖結構(語義圖和知識圖譜),分別表示「The boy wants the beautiful girl to eat lunch with him.」和「Above the Veil is an Australian novel and the sequel to Aenir. It was followed by Into the Battle.」學習

現有的該領域工做不斷的提出更強大的模型來表示圖信息,但模型依然是經過擬合到目標文本的基於語言模型(language modeling loss)的損失函數進行訓練的,做爲結果,模型會產生流暢的輸出,但會丟失許多輸入的重要信息。編碼

本文提出了一種通用的基於「多視角重建」的損失函數來輔助模型訓練。總的來講,咱們提出了多種方法把輸入的圖投射到目標句子端,讓解碼器不只學習輸出目標句子,還要輸出投射的圖結構,這樣可以迫使模型在作生成的時候更好的記住輸入內容。spa

上圖展現了咱們的模型,其中「Encoder-Decoder」表明一種「structural-aware transformer」 的模型,它在多個圖到文本生成任務重取得了最好的性能,它用右側的基於語言模型的損失函數來訓練。咱們提出兩種「多視角重建」的損失函數,它們都是從解碼器端進行計算,這樣可以強化整個模型的訓練(而不是隻有編碼器)。其中第一種視角(View 1)展示了圖投射在目標語言上的形態,它相似於依存樹,咱們用額外的Deep Baffine模型對它進行建模;另外第二種視角(View 2)展現了線性化後的圖,咱們用一個標準的餓Transformer Decoder對它進行建模,最後對三部分損失加權獲得最終的損失:翻譯

爲了驗證做者在三個圖到文本的標準數據集(LDC2015E86,LDC2017T10,WebNLG)上進行驗證,分別取得了2.4+ BLEU score的提高,分別見表一、二、3,更多分析結果請參考原文code

表1: LDC2015E86上的結果orm

表2: LDC2017T10上的結果blog

表3: WebNLG上的結果it

相關文章
相關標籤/搜索