論文筆記Learning object-action relations from bimanual human demonstration using graph networks

摘要 提供了雙手演示的動作分類框架。從原始RGB-D視頻提取物體幾何動作關係,建立基於圖的分類器。 圖1:數據集:來自數據集的3個示例性RGB-D圖像(爲了更好的清晰度而編輯的圖像);特徵提取:三級處理流水線的中間結果和最終結果,一個場景圖;分類:基於場景圖對右手(RH)和左手(LH)執行的動作進行預測的圖形網絡分類器。 圖2:從我們提議的數據集的示範性記錄。第一排:準備早餐麥片,切一根香蕉,倒進
相關文章
相關標籤/搜索