logit,softmax和cross entropy

在多分類問題中: 筆者理解logit是一個催化劑的作用,它擴大了數據之間的差異性,使一些由於值域有上下限的問題數據之間的差別更大了。之後用softmax函數將擴大後的數據再映射到概率區間(0,1),輸出概率最大的類別爲預測值,再用cross entropy函數計算損失值。 附上公式: logit函數: softmax: cross enropy:yi是正確解的標籤,pj是該標籤下預測出來的概率 流
相關文章
相關標籤/搜索