Look into Person: Self-supervised Structure-sensitive Learning and A New Benchmark for Human Parsing

摘要 由於人體解析巨大的應用潛力,引起了廣泛的研究。但是現存的數據集只有有限的圖像和標註,缺乏人類外觀的多變性; 本論文引入了一個新的benchmark,「Look into Person (LIP)」, 在可擴展性、多樣性和難度方面取得了重大進展,對未來以人爲中心的研究具有重大貢獻; 這個全面的數據集包含50000多幅經過精心標註的圖像,其中包含19個語義部件標籤,它們是從更廣泛的視角、遮擋和復
相關文章
相關標籤/搜索