dropout的原理

dropout的本質是將一些數遍設置爲0,就達到失活的效果; tf.layers.dropout:training默認爲False;必須要True纔能有效;而且能看出是以整體爲準, 而不是每行以固定的比率失活; 使用keep_prob參數;意義與上面相反;而且也是以整體爲基準; 輸入爲batchsize的時候,如何實現輸入層失活0.2呢,即每個樣本通過時都會失活0.2,而不以batchsize爲整
相關文章
相關標籤/搜索