生成對抗網絡(二)

關於熵(對所有信息量的期望),交叉熵,最大似然估計=最小KL散度的理論。轉自 http://www.javashuo.com/article/p-nnyatwlq-eu.html 越容易發生的事件其信息量越小。 信息量: 熵: 熵表示信息量的期望 其中的n代表n種可能性。即事件取的n種可能值。 當n取2時,如拋硬幣等問題,此時有 相對熵 也叫做KL散度,如果我們對於同一個隨機變量 x 有兩個單獨的
相關文章
相關標籤/搜索