tf.nn.sigmoid_cross_entropy_with_logits(logits=logits, labels=labels)
tf.reduce_mean(loss)
使用例:label=[[1,1,0],[0,1,0],[0,0,1] logits=[[0.6,0.7,0.2],[0.1,0.5,0.2],[0.2,0.1,0.8]]git
tf.nn.softmax_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, dim=-1, name=None)
tf.reduce_mean(loss)
使用。例:函數
y = np.array([[1,0,0],[0,1,0],[0,0,1],[1,0,0],[0,1,0]])# 每一行只有一個1 logits =np.array([[12,3,2],[3,10,1],[1,2,5],[4,6.5,1.2],[3,6,1]])
tf.nn.sparse_softmax_cross_entropy_with_logits(_sentinel=None,labels=None,logits=None, name=None)
tf.reduce_mean(loss)
使用。tf.nn.softmax_cross_entropy_with_logits()
的計算公式同樣,只是要將labels轉換成tf.nn.softmax_cross_entropy_with_logits()
中labels的形式例:優化
y = np.array([[1,0,0],[0,1,0],[0,0,1],[1,0,0],[0,1,0]])# 每一行只有一個1 logits =np.array([[12,3,2],[3,10,1],[1,2,5],[4,6.5,1.2],[3,6,1]])
tf.nn.weighted_cross_entropy_with_logits(labels,logits, pos_weight, name=None)
計算具備權重的sigmoid交叉熵sigmoid_cross_entropy_with_logits()spa