Wasserstein GANs 三部曲(二):Wasserstein GAN論文的理解

附論文地址:https://arxiv.org/abs/1701.07875 這一篇文章和下一篇講提高WGAN的更有實際應用意義一些吧。轉載請註明。 基礎介紹         學習一個概率分佈,通常我們是學習這個分佈的概率密度函數,假設概率密度函數存在,且由多個參數組成即,已知該分佈下點集爲,那麼認爲這些點既然出現了,就是概率最大的(相當於極大似然的思想)。問題就變成了求解使得。假設真實分佈爲,可
相關文章
相關標籤/搜索