Look, Imagine and Match: Improving Textual-Visual Cross-Modal Retrieval with Generative Models

CVPR2018的一篇關於跨媒體檢索的文章,paper鏈接https://arxiv.org/abs/1711.06420,一作是南洋理工大學的PHD,作者的homepage http://jxgu.cc/,code已經被released出來了https://github.com/ujiuxiang/NLP_Practice.PyTorch/tree/master/cross_modal_retr
相關文章
相關標籤/搜索