概率分佈之間的距離度量以及python實現

轉載:http://www.cnblogs.com/denny402/p/7054950.html   1、f 散度(f-divergence) KL-divergence 的壞處在於它是無界的。事實上KL-divergence 屬於更廣泛的 f-divergence 中的一種。 如果P和Q被定義成空間中的兩個概率分佈,則f散度被定義爲: 一些通用的散度,如KL-divergence, Helli
相關文章
相關標籤/搜索