LSTM的訓練和測試長度(batch_size)不一樣報錯的解決方案

 問題: 在使用tf搭建lstm時,無論訓練還是測試時,都必須保持batch_size不變,否則會報錯,但搭建純CNN時並不會出現這種情況,有什麼解決方案嗎? 下面代碼是最開始模型的定義,由於這裏對init_state進行了zero初始化,這裏涉及到了batch_size,這裏就是導致後來喂數據的時候,不能改變bathc_size的原因。 with tf.variable_scope('LSTM_
相關文章
相關標籤/搜索