KL散度的理解

轉自:https://www.cnblogs.com/hxsyl/p/4910218.html 淺談KL散度 一、第一種理解     相對熵(relative entropy)又稱爲KL散度(Kullback–Leiblerdivergence,簡稱KLD),信息散度(informationdivergence),信息增益(information gain)。    KL散度是兩個概率分佈P和Q差
相關文章
相關標籤/搜索