TensorFlow學習筆記(四)--activation function

注:本筆記圖片和部分文字描述來源於百度百科,ReLU則是來自《深度學習》譯本  激勵函數,亦作激活函數。百度百科的定義如下:神經網絡中的每個節點接受輸入值,並將輸入值傳遞 給下一層,輸入節點會將輸入屬性值直接傳遞給下一層(隱層或輸出層)。在神經網絡中,隱層和輸出層節點 的輸入和輸出之間具有函數關係。常見的激勵函數有:Rectified Linear Unit(ReLU)、閾值或階躍激勵函 數、si
相關文章
相關標籤/搜索