TensorFlow學習---tf.nn.dropout防止過擬合

一、 Dropout原理簡述: tf.nn.dropout是TensorFlow裏面爲了防止或減輕過擬合而使用的函數,它一般用在全連接層。 Dropout就是在不同的訓練過程中隨機扔掉一部分神經元。也就是讓某個神經元的激活值以一定的概率p,讓其停止工作,這次訓練過程中不更新權值,也不參加神經網絡的計算。但是它的權重得保留下來(只是暫時不更新而已),因爲下次樣本輸入時它可能又得工作了。示意圖如下:
相關文章
相關標籤/搜索