Video Captioning 綜述

 

1.Unsupervised learning of video representations using LSTMsgit

方法:從先前的幀編碼預測將來幀序列github

類似於Sequence to sequence learning with neural networks論文數據庫

方法:使用一個LSTM編碼輸入文本成固定表示,另外一個LSTM解碼成不一樣語言網絡

2.Describing Videos by Exploiting Temporal Structure分佈式

該論文發表在iccv2015,是第一篇使用時間關注解決視頻描述的文章。ide

 

方法:使用融合時空運動特徵的3D迴旋網絡工具

引入attention機制 學習

3.Long-term recurrent convolutional networks for visual recognition and description 優化

方法:使用CRFs得到活動物體工具位置的語義元組編碼

使用一層LSTM將元組翻譯成句子

缺點:僅用於有限域

 4.Translating videos to natural language using deep recurrent neural networks 

①CNN抽取視頻幀特徵

平均池化產生單一特徵向量表明整個視頻

使用LSTM做爲序列編碼器產生基於向量的描述

缺點:徹底忽略視頻幀順序

未利用時間信息

 5. Sequence to Sequence -Video to Text

出現問題:1.現實世界視頻複雜(物件場景行爲屬性多樣化,而且難以肯定主要內容正確用文本描述事件)

2.對視頻描述須要對時間結構敏感以及容許可變長度的輸入(視頻幀)輸出(文本)

方法:端到端序列到序列模型,使用LSTMs

模型:S2VT,學習直接將序列幀映射成序列句子。使用一層LSTM編碼視頻幀序列成分佈式向量表示。這層單一的LSTM對輸入編碼並解碼,容許在編碼和解碼時分享權重。 

①LSTM對幀逐一編碼,幀由CNN輸出。爲模擬時間活動方面,計算連續幀對之間的光流。流圖像經過CNN輸出給LSTM做爲輸出

讀取了全部幀,模型就逐句生成句子

同時加入了另外的特徵——光流圖像提取的特徵,由於能夠更好的表示視頻中的動做

本篇詳細方法:

1.LSTMs for sequence modeling

在編碼階段,給一個輸入序列X1,2,…n,LSTM計算一個隱藏狀態序列(h1,h2,…hn

解碼階段,給定輸入序列X的輸出序列Y定義分佈爲p(Y|X)

2.序列到序列視頻到文本

其餘方法:第一個LSTM將輸入序列編碼成一個固定長度向量,第二個LSTM將向量映射成序列輸出。

本篇方法:一個單一的LSTM進行編碼解碼。

在前幾時間步裏,首層LSTM得到序列幀,進行編碼,二層LSTM得到隱藏表示ht聯結成空的輸入句子,而後編碼

當視頻幀結束後,第二層LSTM會嵌入一個句子開始(BOS)標籤,提示開始編碼現有的隱藏表示爲句子序列

3.視頻和文本表示

1RGB frames:使用CNN輸入圖片提供輸出爲LSTMs的輸入。輸入視頻幀爲256256,裁剪爲227227

本篇還移除了原始的最後一層全鏈接分類層,學習新的特徵線性嵌入成一個500維空間。這個低維特徵構成到第一層LSTM的輸入

2Optical Flow:

抽取經典變分光流特徵

創造流圖像

計算流強度並做爲第三頻道增長到流圖像

使用CNN初始化在UCF101視頻集上的權重來將光流圖像分類爲101個活動類別。CNNfc6層活性被嵌入到一個低於500維空間裏並做爲LSTM的輸入。

在組合模型中,使用淺融合技術來組合流和RGB特徵。

3)文本輸入

目標輸出單詞序列使用one-hot向量解碼錶示。

經過應用線性變換嵌入單詞成低於500的維空間成輸入數據,而後經過反向傳播學習參數。

嵌入的單詞向量鏈接第一層LSTM的輸出ht來構成第二層LSTM的輸入。

對於LSTM輸出應用softmax成完整的詞彙

總結:對視頻的特徵提取也僅僅對每幀的圖像使用CNN網絡進行2D特徵的提取,同時加入了另外的特徵——光流圖像提取的特徵,由於能夠更好的表示視頻中的動做,整個視頻encoderdecoder過程在一個LSTM模型上完成,考慮到了視頻的時序特徵,所以使用LSTM網絡來順序進行圖像特徵的輸入,用隱含層來表示整個視頻,再接着輸入單詞來逐個預測單詞,以後是詳細介紹。

 6. Frame- and Segment-Level Features and Candidate Pool Evaluation for Video Caption Generation2016

這篇文章提出的方法就是用不一樣的模型在不一樣種類的特徵上進行訓練從而來生成視頻的描述,再使用一個評估網絡來評估生成句子和視頻特徵之間的關聯性,選擇關聯性最好的爲最終的視頻描述。

選擇的特徵有三種:第一種是針對幀的特徵,使用GoogleNet來提取特徵;第二種是基於視頻片斷的特徵,這裏文章使用了兩種特徵,人工特徵dense trajectories和使用C3D網絡提取的特徵;第二種是數據庫給出的視頻類別信息,一共20類。

decoder上使用了LSTM的改進版,深層的LSTM,而且一個模型使用兩種特徵來進行訓練,一種來init,另外一種來persist

7.Describing Videos using Multi-modal Fusion2016

這篇文章使用了多種類型的特徵,好比:圖像特徵、視頻特徵、環境音特徵、語音特徵和種類特徵,將它們融合做爲視頻的表示。其中的的fusion network其實是單層的FC網絡,即對各種型的特徵進行加權平均,在輸入到decoderLSTM模型來生成描述。

8.Multi-Task Video Captioning with Video and Entailment Generation 2017 ICCV

這篇文章的主要貢獻是提出了使用多任務學習來優化視頻描述任務,做者認爲單獨使用一個模型來訓練視頻描述任務不能很好的提取時序特徵也就是動做序列,同時他把視頻描述當成了一個推演過程,經過視頻特徵序列來推演出對應的描述,給出前提(視頻特徵)得出結果(描述),做者認爲單任務單模型不能很好的擬合這種推演過程。所以他提出了用多任務來彌補視頻描述中缺少時序表示和邏輯推演這兩方面

 這篇文章模型是沒有創新的,仍是2015年提出的attentionLSTM模型,每一個任務的模型還有視頻提取特徵方法還有待提高。主要貢獻是提出了多任務學習方法,其實我的認爲仍是加入更多的模型,更多的數據從而獲得更好的特徵來提高效果。

 9.Weakly Supervised Dense Video Captioning 2017 CVPR

接下來這篇論文就比較厲害了(同時比較複雜),能夠說開啓了視頻描述的新篇章,基於區域序列的多視頻描述生成,由於做者以爲視頻包含的信息不少,一句話是描述不清楚的,視頻中也包含這各類對象,每一個對象有着不一樣的動做,所以提出了基於區域序列的視頻描述,同時這些描述要保證多樣性,全方位的描述整個視頻。如圖,對同一個視頻,先提取出不一樣的區域序列,對每一個區域序列生成一句描述。至於爲何是弱監督學習,由於如今的視頻描述數據庫沒有針對區域序列的描述數據,只有視頻級的描述,要用視頻級的描述來學習區域級的描述,所以是弱監督學習。

 參考文獻:

1.video caption 歷年突破性論文總結

2.CVPR2019 相關論文總結

相關文章
相關標籤/搜索