[論文解讀]ASLFeat: Learning Local Features of Accurate Shape and Localization

先總結一下: 這個文章是對D2Net的更進一步,主要解決了D2Net的痛點——keypoint太不準了。我實際用D2Net進行三維重建就感受到,D2Net並不是高精度的像素級匹配,而更像是圖像檢索的DELF。它在4pixel threshold 的精度以下完全沒法跟傳統的SIFT之類比,只有當閾值放大才能有特別出衆的效果。 這個文章解決了這個痛點,而且benchmark看起來效果也是特別好。 貢獻
相關文章
相關標籤/搜索