【論文閱讀】A Neural Conversational Model

這是google放在arvix上的一篇論文,寫得是非常輕鬆隨意,模型也很簡潔,結果自稱Modest。 對話只做到了一問一答,沒有做到多輪,採用了兩層LSTM進行建模,4096 cells大小,100K words, 到輸出層的時候將4096 cells投影到2048 units。(OpenSubtitles dataset 上的配置,在另外一個小數據集上,cell的大小會變得小一點) 模型: 在推
相關文章
相關標籤/搜索