論文學習:Learning to Generate Time-Lapse Videos Using Multi-StageDynamic Generative Adversarial Networks

Welcome To My Blog 這篇論文收錄於KDD2018,有關視頻生成的,論文有個項目主頁,題目翻譯過來大致是:使用多階段動態生成對抗網絡學習生成time-lapse(延時)視頻. 多階段具體來說是兩階段, 1. 第一階段(Base-Net): 注重每一幀內容的真實性 2. 第二階段(Refine-Net): 注重幀與幀之間物體的運動 下圖是模型整體框架,叫做MD-GAN MD-GAN由
相關文章
相關標籤/搜索