[論文翻譯]Recurrent Spatial Transformer Networks(RNN-STN)

github代碼 0. 摘要 我們將STN與RNN結合,提出了RNN-STN模型,並用該模型進行MNIST手寫數字識別。該模型單數字的錯誤在1.5%,相比之下CNN的錯誤率在2.9%,STN的錯誤率爲2.0%。 STN能輸出放大、旋轉和傾斜的輸入圖像。 我們研究了STN的不同下采樣因子(輸入和輸出像素比),表明RNN-STN模型能夠在不惡化性能的情況下對輸入圖像進行下采樣。在RNN-STN中的下采
相關文章
相關標籤/搜索