NLP(二)

交叉熵誤差 \(H(p,q)=-\sum^{C}_{c=1}{p(c)logq(c)}\) p(c)爲類別概率 q(c)爲SoftMax概率\(J(\theta)={\frac{1}{N}}\)\(\sum^{N}_{i=1}{-log(\frac{e^{f_{yi}}}{e^{f_c}})}+M\sum_{K}{{\theta}k^2}\)\(M\sum_{K}{{\theta}k^2}\)是正
相關文章
相關標籤/搜索