Training RNNs as Fast as CNNs

本期論文 Training RNNs as Fast as CNNs 本文通過有意簡化狀態計算並展現更多的並行性而提出了一個替代性的 RNN 實現,這一循環單元的運算和卷積層一樣快,並且比 cuDNN 優化的 LSTM 快 5-10x。該實現在諸如分類、問題回答、語言建模上證明了其有效性,並已在 PyTorch 和 CNTK1 中開源。 論文鏈接:https://arxiv.org/abs/170
相關文章
相關標籤/搜索