【論文筆記】LightRNN: Memory and Computation-Efficient Recurrent Neural Networks

論文主題:LightRNN 解決的問題是在 perplexity 差不多的情況下 減少模型大小(model size) + 加快訓練速度(computational complexity)。論文在多個基準數據集進行語言建模任務來評價 LightRNN這是一篇關於語言模型的文章。提出了使用二分量共享詞向量來減少模型大小參數數量來提高運行時間的論文。 前提知識: perplexity :Perplex
相關文章
相關標籤/搜索