論文筆記Baseline Needs More Love:On Simple Word-Embedding-Based Models and Associated Pooling Mechanisms

摘要 在NLP的文本序列相關的任務中,深度學習的方法被廣泛使用。但是深度學習模型的參數多、計算量大,所以不易於訓練。對於深度學習模型的效果,也缺乏嚴格的研究。在這篇文章中,我們對兩種方法進行對比,即簡單的、基於word-embedding、包含了pooling操作的SWEMs,以及基於word-embedding的 CNN/RNN模型。出人意料的是,在大部分任務中,SWEMs的效果能夠打平甚至超過
相關文章
相關標籤/搜索