關於神經網絡訓練總結和思考

       以前一直在無腦訓練神經網絡,定義好參數,網絡,啓動Session,feed給Graph,而後就是無休止的等待,有時候運氣好,數據自己有很好的區分度,模型天然很快收斂,loss直線降低。可是當數據中混淆數據佔比較大時,模型不免不會受到很大的干擾,簡單來講就是,在當前batch_size下,你告訴模型向下走,下一個batch_size你告訴模型向上走。因此模型也矇蔽,你丫的是要向上仍是要
相關文章
相關標籤/搜索