視頻預測算法vid2vid比MCNet好在哪裏?

視頻是一個時序性的圖像,因此在模型中既須要捕捉時間相關性,也須要捕捉空間上的特徵。時間相關性能夠用LSTM這樣的類RNN模型來捕捉,而空間相關性則須要CNN網絡。更早一點的ConvLSTM單元就是這種思想。深度學習可以處理各類各樣的問題,前提是根據問題自己須要設計相關的網絡結構, MCNet和vid2vid是17年和18年比較優秀的視頻序列處理算法,本文主要分析vid2vid網絡與MCNet相比更
相關文章
相關標籤/搜索