信息量-logP、信息熵求期望-ElogP、交叉熵=KL散度=相對熵

學習參考https://blog.csdn.net/u011984148/article/details/99439576 一般情況是D(G)=0.5導致D_loss=-log0.5-log0.5.但是D目的是D(G)=0,進一步D_loss變大=0(分析D(art)=1,D(gan)=0,所以log(D(art)=1)=0, log(1-D(G))=log(1)=0,。。。) 交叉熵loss(二
相關文章
相關標籤/搜索