新能源與智能汽車技術(shù)叢書--無人駕駛汽車SLAM導航定位技術(shù)
定 價:118 元
叢書名:新能源與智能汽車技術(shù)叢書
- 作者:時培成 編著
- 出版時間:2024/2/1
- ISBN:9787122445643
- 出 版 社:化學工業(yè)出版社
- 中圖法分類:U469.79
- 頁碼:229
- 紙張:
- 版次:01
- 開本:16開
隨著人工智能的興起,基于各種深度學習的圖像處理方法被應用到無人駕駛汽車SLAM (同步定位與地圖構(gòu)建)導航定位中,極大推動了無人駕駛汽車的進步與發(fā)展。本書主要介紹SLAM 相關(guān)數(shù)學知識及核心算法在無人駕駛汽車導航定位中的應用,其中,既包括數(shù)學理論基礎(chǔ),如仿射變換、SVD分解,又包括SLAM 的經(jīng)典算法實現(xiàn),如因子圖優(yōu)化、卡爾曼濾波等。本書從學術(shù)界及工業(yè)界的角度,全面展示了SLAM 經(jīng)典算法,如基于視覺的經(jīng)典SLAM 算法——ORB-SLAM2,以及基于激光雷達的經(jīng)典SLAM 算法——LOAM。本書還指出了多傳感器、深度學習等關(guān)鍵技術(shù)在無人駕駛汽車SLAM 導航定位中的應用,以及當前需要攻克的重點、難點。
本書可作為高等院校汽車工程、自動控制等專業(yè)高年級本科生、研究生的參考教材,同時也可供相關(guān)領(lǐng)域的技術(shù)人員參考。
第1章 SLAM 基礎(chǔ)知識 001
1.1 引言 002
1.1.1 什么是SLAM? 002
1.1.2 SLAM 的發(fā)展歷史 003
1.1.3 應用和挑戰(zhàn) 004
1.2 應用于SLAM 的視覺傳感器 006
1.2.1 激光雷達 006
1.2.2 相機 008
1.3 視覺傳感器的數(shù)據(jù)預處理 011
1.3.1 圖像信息提取技術(shù) 012
1.3.2 語義與位置 012
1.3.3 語義與映射 013
1.3.4 點云特征提取技術(shù) 014
1.3.5 點云分割技術(shù) 016
1.4 如何實現(xiàn)SLAM? 018
1.4.1 SLAM 的工作流程 018
1.4.2 地圖構(gòu)建和更新 021
1.4.3 SLAM 數(shù)據(jù)集 023
1.5 SLAM 中的關(guān)鍵問題 024
本章小結(jié) 026
參考文獻 026
第2章 SLAM 數(shù)學基礎(chǔ) 029
2.1 仿射變換 030
2.1.1 仿射變換的定義 030
2.1.2 仿射變換的特例 032
2.1.3 仿射變換的性質(zhì) 034
2.2 對極約束和Essential 矩陣、Fundamental 矩陣 035
2.2.1 預備知識(各種坐標轉(zhuǎn)換) 035
2.2.2 對極幾何 036
2.2.3 本質(zhì)矩陣和基礎(chǔ)矩陣 038
2.3 SVD 奇異值分解 039
2.3.1 預備知識 039
2.3.2 奇異值分解 040
2.4 單應性 042
2.5 Homography、Essential 矩陣在共面、非共面及旋轉(zhuǎn)場景中的應用 044
2.5.1 Homography 應用 045
2.5.2 Essential 應用 046
2.6 卡方分布和卡方檢驗 047
2.6.1 什么是卡方分布? 047
2.6.2 什么是卡方檢驗? 049
2.6.3 卡方分布和卡方檢驗在SLAM 中的應用 050
2.6.4 卡方檢驗計算方法 051
2.7 矩陣變換 052
2.7.1 雅可比矩陣 053
2.7.2 黑森矩陣(二階矩陣方塊矩陣) 055
2.7.3 多元函數(shù)的泰勒定理 056
2.7.4 函數(shù)的極值條件 058
2.8 旋轉(zhuǎn)矩陣、旋轉(zhuǎn)向量、歐拉角推導與相互轉(zhuǎn)換 061
2.8.1 歐拉角 062
2.8.2 旋轉(zhuǎn)矩陣 063
2.8.3 歐拉角轉(zhuǎn)換為旋轉(zhuǎn)矩陣 065
2.8.4 旋轉(zhuǎn)矩陣與旋轉(zhuǎn)向量 066
2.9 G2O 優(yōu)化 066
2.9.1 預備知識:優(yōu)化 067
2.9.2 圖優(yōu)化的概念 067
2.9.3 圖優(yōu)化的實現(xiàn) 069
2.9.4 G2O 優(yōu)化 071
本章小結(jié) 074
參考文獻 074
第3章 基于視覺的SLAM 算法 076
3.1 引言 077
3.2 相機模型與標定 077
3.2.1 針孔相機模型 077
3.2.2 畸變與相機標定 079
3.3 特征點提取與匹配 081
3.3.1 Harris 角點檢測 081
3.3.2 SIFT 特征提取 083
3.3.3 匹配算法 085
3.4 視覺里程計 086
3.4.1 基于特征點的VO 算法 086
3.4.2 直接法VO 算法 089
3.5 基于傳統(tǒng)方法的VSLAM 090
3.5.1 基于特征點法的經(jīng)典視覺SLAM 算法(ORB-SLAM2) 090
3.5.2 基于像素點進行概率的深度測量的SLAM 算法(LSD) 093
3.6 結(jié)合語義信息的VSLAM 097
3.6.1 基于Vanish Point 的三維目標檢測的SLAM 算法(Cube-SLAM) 098
3.6.2 具有動態(tài)物體檢測和背景修復的VSLAM 算法(DynaSLAM) 100
本章小結(jié) 104
參考文獻 104
第4章 基于CAM+IMU 的視覺慣性里程計 107
4.1 引言 108
4.1.1 慣性傳感器(IMU) 108
4.1.2 卡爾曼濾波 109
4.1.3 視覺慣性里程計(VIO) 110
4.1.4 VIO 的算法流程 110
4.2 基于優(yōu)化的VIO-SLAM 112
4.2.1 基于滑動窗口的緊耦合的單目VIO 系統(tǒng)(VINS-Mono) 112
4.2.2 基于關(guān)鍵幀的視覺慣性里程計SLAM(OKVIS) 122
4.3 基于卡爾曼濾波的VIO-SLAM 126
4.3.1 基于多狀態(tài)約束下的卡爾曼濾波器SLAM 算法(MSCKF) 126
4.3.2 擴展MSCKF 算法(SR-ISWF) 133
4.4 基于GTSAM 的VIO-SLAM 139
4.4.1 因子圖和GTSAM 139
4.4.2 基于因子圖優(yōu)化的SLAM 算法 145
本章小結(jié) 149
參考文獻 150
第5章 基于Lidar 的激光慣性里程計 153
5.1 引言 154
5.2 激光雷達的工作方式 154
5.2.1 激光雷達數(shù)據(jù)的測距方法 155
5.2.2 激光雷達數(shù)據(jù)的處理方法 157
5.3 基于傳統(tǒng)方法的激光SLAM 158
5.3.1 基于特征點匹配的經(jīng)典激光SLAM 算法(LOAM) 158
5.3.2 面向自動駕駛場景的激光SLAM 算法(Lego-LOAM) 163
5.4 結(jié)合語義信息的激光SLAM 167
5.4.1 通過語義分割去除動態(tài)面元的SLAM 算法(SuMa++) 167
5.4.2 參數(shù)化語義特征的語義激光雷達里程計SLAM 算法(PSF-LO) 173
本章小結(jié) 180
參考文獻 180
第6章 基于Lidar+IMU 的激光慣性里程計算法 182
6.1 引言 183
6.1.1 Lidar+IMU 的技術(shù)優(yōu)勢 183
6.1.2 如何進行Lidar 和IMU 的數(shù)據(jù)融合 183
6.2 基于優(yōu)化算法的LIO-SLAM 184
6.2.1 緊耦合的三維激光慣性里程計(LIO-Mapping) 184
6.2.2 測試和分析 190
6.3 基于濾波算法的LIO-SLAM 193
6.3.1 基于迭代擴展卡爾曼濾波的激光慣性里程計SLAM 算法(LINS) 193
6.3.2 測試和分析 197
本章小結(jié) 201
參考文獻 201
第7章 基于多傳感器的SLAM 算法 203
7.1 引言 204
7.1.1 SLAM 的多傳感器融合 204
7.1.2 多傳感器融合的優(yōu)勢 205
7.2 多傳感器數(shù)據(jù)的標定 206
7.2.1 相機-IMU 標定 207
7.2.2 激光雷達-IMU 標定 209
7.2.3 相機-激光雷達標定 212
7.3 基于多傳感器融合的SLAM 算法 214
7.3.1 利用激光雷達進行深度增強的視覺SLAM 算法(LIMO) 214
7.3.2 利用視覺里程計提供先驗的激光SLAM 算法(VLOAM) 220
本章小結(jié) 227
參考文獻 228