深度學習-Relu層

我們在本章節將解釋如何在Python / Matlab中實現ReLU層,如下圖: 簡而言之,ReLU層將在輸入張量上的所有元素中應用該功能,而不會更改其空間或深度信息。 從上圖可以看出,所有正元素都保持不變,而負數變爲零。 空間信息和深度也相同。 考慮到神經網絡,它只是一種新型的激活函數,但具有以下功能: 1、易於計算(向前/向後傳播) 2、在深層模型中消失的梯度少得多 3、不好的一點是,如果您的
相關文章
相關標籤/搜索