深度神經網絡-初始化+訓練-工程經驗

以下內容來源:https://blog.csdn.net/liyaohhh/article/details/77165483 如果激活函數使用sigmoid和tanh,怎最好使用xavir tf.contrib.layers.xavier_initializer_conv2d 如果使用relu,則最好使用he initial tf.contrib.layers.variance_scaling_i
相關文章
相關標籤/搜索