KL散度的理解

KL散度的理解 標籤(空格分隔): 機器學習 linbin 2018-05-29 KL散度( KL divergence) 全稱:Kullback-Leibler Divergence 用途:比較兩個概率分佈的接近程度 在統計應用中,我們經常需要用一個簡單的,近似的概率分佈 f∗ 來描述 觀察數據 D 或者另一個複雜的概率分佈 f 。這個時候,我們需要一個量來衡量我們選擇的近似分佈 f∗ 相比原分
相關文章
相關標籤/搜索