tensorflow教程之tf.nn.softmax_cross_entropy_with_logits()方法解析

tf.nn.softmax_cross_entropy_with_logits(labels,logits)這個方法是最大似然函數,也是損失函數; 這個函數有兩個主要的參數,一個是標籤,一個是最後全連接層輸出的結果;注意這兩個參數的維度必須一致! 標籤一般都是用ont-hot熱碼,什麼是ont-hot,自己百度,很簡單的 如果是3類,那麼就是  [0,0,1] [0,1,0] [1,0,0]  o
相關文章
相關標籤/搜索