閱讀論文《 Real-Time Neural Style Transfer for Videos》

   這是2017騰訊AI Lab的一篇論文,當前階段主要關注空間上圖像質量的風格轉換,對於時間方面的後續在做視頻時再補充。 空間風格轉換    和DPED一樣,論文的idea是將網絡分成了生成網絡和損失網絡兩個部分,生成網絡用來生成圖片,損失網絡用來產生損失函數方便訓練。下面對這兩個部分分別介紹一下: 生成網絡部分    在生成網絡部分,這裏應該是用了之前一些論文的思想,使用三個卷積層先將圖像分
相關文章
相關標籤/搜索