[骨架動作識別]Global Context-Aware Attention LSTM

1. Introduction 本文的主要結構是一個兩層的lstm,第一層生成global context memory(GCA),就是一個全局的背景信息。第二層LSTM加了注意力模型。這個注意力信息的生成有來自第一層的全局背景信息GCA的輔助,然後生成的注意力信息再用來重新調節全局背景GCA信息。是一個反覆迭代的過程。最後GCA被用來分類。 爲什麼要這樣做? 對於普通的LSTM而言,雖然後來的s
相關文章
相關標籤/搜索