做者:Deeksha Arya等git
編譯:CV君github
報道:我愛計算機視覺公衆號(id:aicvml)算法
向你們推薦一篇論文『Global Road Damage Detection: State-of-the-art Solutions』,它總結了在 IEEE International Conference on Big Data'2020 會議中舉辦的 「Global Road Damage Detection Challenge (GRDDC) ,全球道路損壞檢測挑戰賽」中前 12 名的解決方案。微信
其不只給出了各參賽隊的方案,並且這些代碼也所有開源了,相信對於學術和工業界的朋友都會頗有幫助。
app
本次挑戰賽的任務是對幾種道路損傷進行檢測,不只要分類出損傷類別,還要定位到損傷的位置,故該比賽實質是一個目標檢測問題。編輯器
01 學習
GRDDC'2020 數據集是從印度、日本和捷克收集的道路圖像。包括三個部分:Train, Test1, Test2。訓練集包括帶有 PASCAL VOC 格式 XML 文件標註的道路圖像。在給參賽者的數據Test1 和 Test2 中是沒有標註。train則包含標註。測試
數據分佈以下:flex

三個數據集和三個國家的圖像分佈統計網站

02
評估方法
GRDD 挑戰賽的評估標準是F1-Score。
對於參賽者提交的預測結果,若是預測知足如下兩個標準,則認爲它是正確的。
predicted bounding box 與 ground truth bounding box 之間的重疊區域超過 50%,即 IoU > 0.5。
預測的標籤與實際的標籤相匹配,如圖像的標註文件中所指定的(ground truth)。
評估腳本比較兩個輸入文件以及計算所提交的 F1-Score。F1-Score 爲精確率和召回率的調和平均數,精確度是真陽性與全部預測陽性的比率。召回率是真正的陽性結果與全部實際陽性結果的比率。
各參數的細節以下:
真陽性(TP):ground truth 中存在一個損害實例,而且該實例的標籤和邊界框被正確預測,IoU>0.5。
假陽性(FP):當模型預測了圖像中某一特定位置的損害實例,但該實例並不存在於圖像的 ground truth 中。也包括了預測標籤與實際標籤不匹配的狀況。
假陰性(FN):當一個損害實例出如今 ground truth 中,但模型沒法預測正確的標籤或該實例的邊界框。
召回率:
精確度:
F1-Score:
F1指標對召回和精度的權重相等。所以,參賽者須要在二者都有中等水平的表現,而不是在其中一個方面表現突出,在另外一個方面表現不佳。對 test1 和test2 分別計算 F1。最後,用兩個分數的平均值對各隊進行排名。
03
結果和排名
獲勝團隊的最後得分及代碼以下:
Test1-Score:0.6748
Test2-Score:0.6662
(這個結果是遠超第二名的!)
做者已經公開了代碼:
https://github.com/USC-InfoLab/rddc2020
第二名
第三名
方案:以Cascade R-CNN爲基礎模型的模型集合。數據增廣用到:道路分割、混合、CLAHE、 RGB shift。該團隊也探索使用過的其餘算法:Faster-RCNN, ResNeXt101, HR-Net, CBNet, ResNet-50。
第四名
方案:CSPDarknet53主幹網上訓練的YOLO模型。無數據增廣。其還探索使用過 Hourglass104和 EfficientNet 主幹網上訓練的 CenterNet 和 EfficientDet 模型。
第五名
方案:主方法是:YOLOv5x。對於數據增廣:圖像HSV、圖像轉換、圖像比例、水平翻轉、馬賽克。
第六名
方案:Ensemble(YOLO-v4 + Faster-RCNN)。
第七名
方案:EfficientDet 。



第八名
方案:主方法 YOLOv4,以及其它數據增廣方法:經過調整亮度、對比度、色調、飽和度和噪聲進行圖像轉換。隨機縮放和 Mosaic 數據加強,條件GAN。
第九名
方案:Faster RCNN+ Resnet-18/Resnet-50。使用過數據增廣但沒有改善精度。
第十名
方案:使用Resnet-50和Resnet-101主幹網的多級 Faster R-CNN,以及以CSPNet 爲主幹網的 Yolov5。數據增廣:對路面進行尺寸調整和語義分割(這樣只檢測路面部分)。
第十一名
方案:Detectron2 和 Faster R-CNN。數據增廣使用了水平鏡像和縮放。
第十二名
方案:FR-CNN。
前 12 支團隊所取得的排名及得分狀況


05
結果討論
YOLOv五、YOLOv4是比賽中經常使用的模型,u版YOLOv5很優秀;
幾乎全部團隊都使用了數據增廣,其能夠顯著改善精度,但也有用了沒效果的時候;
目標檢測中的集成學習:
多圖像輸入+多模型測試+結果送入NMS。

備註:目標檢測

目標檢測交流羣
2D、3D目標檢測等最新資訊,若已爲CV君其餘帳號好友請直接私信。
微信號:aicvml
QQ羣:805388940
微博知乎:@我愛計算機視覺
投稿:amos@52cv.net
網站:www.52cv.net

在看,讓更多人看到
本文分享自微信公衆號 - 我愛計算機視覺(aicvml)。
若有侵權,請聯繫 support@oschina.cn 刪除。
本文參與「OSC源創計劃」,歡迎正在閱讀的你也加入,一塊兒分享。