交叉熵tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)

在計算loss的時候,最常見的一句話就是tf.nn.softmax_cross_entropy_with_logits,那麼它到底是怎麼做的呢? 首先明確一點,loss是代價值,也就是我們要最小化的值   tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 除去name參數用以指定該操作的name,與方法有關的一共兩
相關文章
相關標籤/搜索