【卷積神經網絡】目標檢測邊框迴歸一些細節

x,y 座標除以寬高 目的是爲了知足cnn的尺度不變性,便於進行參數的學習。邊框迴歸學習的是迴歸函數,然而你的目標卻不知足函數定義,固然學習不到什麼。函數 寬高座標Log形式 咱們想要獲得一個放縮的尺度,也就是說這裏限制尺度必須大於0。咱們學習的tw,thtw,th怎麼保證知足大於0呢?直觀的想法就是EXP函數,如公式(3), (4)所示,那麼反過來推導就是Log函數的來源了。學習 爲何IoU較大
相關文章
相關標籤/搜索