Keras網絡訓練

由於設備給力,且tensorflow非常吃顯存,即使不用也會全部佔滿,故想着直接使用兩塊一起訓練,但是……太年輕。 未訓練之前:  使用一塊訓練:  訓練的過程應該是將原本的網絡模型拆分到不同的gpu上進行訓練,每個gpu上應該都是完整的模型,但是實驗效果卻差強人意。 1)準確率是之前使用1塊gpu訓練的一半,理論上應該無影響,不知道該怎麼解釋;難道真的是對二者按照某種比例求了一個均值?請大神指點
相關文章
相關標籤/搜索