JavaShuo
欄目
標籤
KL-divergence
時間 2021-01-03
標籤
深度學習
神經網絡
简体版
原文
原文鏈接
看論文1的時候遇到的,該論文首先得出了衡量兩個概率分佈之間的距離的公式,目標函數是使這兩個概率之間的距離d( · , · )儘可能小,但是由於比較難算,因此用計算KL-divergence代替d( · , · ),一時不知這是什麼,因此上網查了KL-divergence,胡亂總結2如下 KL-divergence又叫相對熵(relative entropy),衡量兩個概率分佈之間的不同程度。作用在
>>阅读原文<<
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
[最佳實踐]瞭解 Eolinker 如何助力遠程辦公
2.
katalon studio 安裝教程
3.
精通hibernate(harness hibernate oreilly)中的一個」錯誤「
4.
ECharts立體圓柱型
5.
零拷貝總結
6.
6 傳輸層
7.
Github協作圖想
8.
Cannot load 32-bit SWT libraries on 64-bit JVM
9.
IntelliJ IDEA 找其歷史版本
10.
Unity3D(二)遊戲對象及組件
本站公眾號
歡迎關注本站公眾號,獲取更多信息