GitHub:https://github.com/ApolloAuto/apollo
php
1. 關於Apollo的數據:Apollo的數據會如何開放?html
自動駕駛數據將包括具備高分辨率圖像和像素級別標註的 RGB 視頻,具備場景級語義分割的密集三維點雲、基於雙目立體視覺的視頻和全景圖像。數據集中提供的圖像爲經過採集系統每米採集一幀的方式採集,分辨率爲 3384 x 2710。git
百度數據採集車是配備了高分辨率相機和 Riegl 採集系統的中型 SUV。採集場景包括不一樣城市的不一樣交通情況的道路行駛數據,平均每張圖中移動障礙物的數量從幾十到上百不等。(例如,單張圖像中多達 162 輛交通工具或 80 名行人)github
除了採集數據以外,百度還會用本身的視覺感知算法給每一幀畫面中的像素作相應的語義分割。當前支持的語義分割種類已經達到了 25 項,包括車輛、行人、自行車、摩托車、道路、交通標識等等。這樣的分割有助於開發者能夠在這個數據集中直接訓練以及驗證本身的自動駕駛算法。換言之這套數據集是能夠讓開發者直接拿來就用的,而不用再作初始的數據解析。算法
2.百度釋放出無人駕駛資料集ApolloScape.ubuntu
3.Apollo迭代升級史
框架
4.Apollo多傳感器融合定位模塊工具
多傳感器融合定位
spa
定位技術橫跨好幾個專業,包括測繪、導航、計算機視覺知識、以及點雲處理的知識。.net
Apollo2.0的多傳感器融合定位模塊的框架以下圖所示:
左邊列出了定位模塊依賴的硬件以及數據,包括慣性測量單元IMU、車端天線、基站、激光雷達、以及定位地圖;
中間是GNSS定位以及激光點雲定位模塊,GNSS定位輸出位置及速度信息,點雲定位輸出位置及航向角信息;
右邊是融合框架,融合框架包括兩部分:慣性導航解算、Kalman濾波;
融合定位的結果會反過來用於GNSS定位和點雲定位的預測;
融合定位的輸出是一個6-dof的位置和姿態,以及協方差矩陣。
4. 百度Apollo一站式部署-GitHub
代碼地址:
git clone https://github.com/ApolloAuto/apollo.git
使用ubuntu、ROS
5. 使用TX2搞定Apollo平臺。
6.論文:Robust and Precise Vehicle Localization based on Multi-sensor Fusion in Diverse City Scenes。
7.淺析/深度解析Apollo技術框架,配圖精美,能夠看看。
終於把火狐標籤頁所有給消滅了