apollo學習筆記二十:apollo 感知(下)

感知中的機器學習 自動駕駛中深度學習模型需要更好的可解釋性,歸結爲如何評估模型讓用戶知道模型是安全的?模型更新後如何做迴歸測試?模型的應用邊界在哪裏?目前,大家認爲可解釋性可以通過測試來體現,如果大量測試得到相同的結果,那麼原理是不是真正的可解釋也就沒那麼重要。 在感知模塊中,除了做基本的檢測、分割之外,還有後處理階段等由公式表示的幾何計算問題,是不需要深度學習的。另外,Common sense也
相關文章
相關標籤/搜索