Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems(閱讀理解)

大多數的NLG(Natural language generation)系統都使用規則和啓發式,並且傾向於在沒有人類語言的自然變化的情況下產生單一風格,本文提出了一種基於語義控制的長短時記憶網絡(LSTM)的統計NLG。它可以通過使用簡單的交叉熵訓練準則,在沒有任何啓發式的情況下,通過聯合優化其句子規劃和表面實現組件來學習未對齊的數據,並通過隨機抽取網絡輸出來獲得高質量的語言變異。 本文的突出貢獻
相關文章
相關標籤/搜索