初始PyTorch(四):均方差&交叉熵

1、均方差Mean Squared Errorpython   torch.norm(y-pred, 2).pow(2) 2、交叉熵Cross Entropy優化 信息熵:,越大越穩定。編碼 交叉熵:,。 其中KL散度表明了兩個分佈的,重合度越高,KL散度值越低,徹底重合KL散度爲0。 若是P=Q時,H(p,q) = H(p), 對於one-hot編碼,若使模型預測的Pθ(p,q)接近真實值Pr(
相關文章
相關標籤/搜索