tf -- activations -- relu

整流線性單元。 使用默認值,它返回按元素的max(x, 0)。 否則,它遵循: 如果 x >= max_value:f(x) = max_value, 如果 threshold <= x < max_value:f(x) = x, 否則:f(x) = alpha * (x - threshold)。 參數: x:張量或變量。 alpha:標量,負值部分的斜率(默認= 0.)。 max_value:
相關文章
相關標籤/搜索