以前實現了一層的卷積神經網絡,又實現了兩層的卷積神經網絡,接下來把cnn擴展到任意層就不難了。git
這難道就是傳說中的「道生一,一輩子二,二生三,三生萬物」麼?=。=github
代碼仍是在github上。網絡
比較有趣的一點是,我分別用兩層的神經網絡和一層的神經網絡進行了實現,結果以下圖:3d
兩層的cnn結果:blog
一層的cnn結果:get
能夠看到,一層的cnn結果反而比兩層的好,那麼頗有多是兩層的cnn出現了過擬合現象。對於mnist這種小數據集,一層的cnn加上一些參數調優絕對是夠用了的。it