Tensorflow學習筆記之tf.nn.relu

Tensorflow學習筆記之tf.nn.relu 關於Tensorflow的學習筆記大部分爲其他博客或者書籍轉載,只爲督促自己學習。 線性整流函數(Rectified Linear Unit,ReLU),又稱修正線性單元。其定義如下圖,在橫座標的右側,ReLU函數爲線性函數。在橫座標的左側,ReLU函數值爲0。 因此tf.nn.relu()的目的就是將輸入小於0的值設爲1,輸入大於0的值不變。
相關文章
相關標籤/搜索