國之重器出版工程 空間機器人智能感知技術(shù)
定 價:110 元
- 作者:蘇建華 楊明浩 王鵬
- 出版時間:2020/12/1
- ISBN:9787115551351
- 出 版 社:人民郵電出版社
- 中圖法分類:TP242.4
- 頁碼:241
- 紙張:
- 版次:01
- 開本:小16開
本書是基于作者在機器人感知及操作方向的長期研究成果,結(jié)合國內(nèi)外在空間機器人感
知領(lǐng)域的全新應(yīng)用編寫而成的。主要內(nèi)容包括視覺感知基本原理、觸覺/力覺感知原理、智能視覺感知方法與技術(shù)、機器人觸/力覺智能感知技術(shù)、空間機器人多通道信息融合的人機對話技術(shù)、月面巡視器視覺定位、空間非合 作目標(biāo)視覺感知等。本書從理論、算法與應(yīng)用等方面對智能感知技術(shù)的研究深入淺出進行介紹,對空間機器人感知技術(shù)的研究和應(yīng)用前沿進行分析,并提出未來的發(fā)展方向。
1.涵蓋機器人視覺感知技術(shù)、機器人觸力覺感知技術(shù)、人機對話中的聽覺與言語感知相關(guān)技術(shù)、空間機器人多通道信息融合處理方面的全新的理論研究成果,具有較高的學(xué)術(shù)價值。
2.理論應(yīng)用于實踐,研究成果不很多已經(jīng)用于實際工程型號。
3.本書與目前在售的其他書不同的是大量介紹月球機器人、空間機械臂中應(yīng)用智能感知技術(shù)的情況。
蘇建華
中國科學(xué)院自動化所復(fù)雜系統(tǒng)管理與控制國家重點實驗室副研究員,主要從事機器人技術(shù)、機器視覺、機器學(xué)習(xí)等方面的研究。2012年至今已主持多項國 家級科研項目。2012年獲北京市科學(xué)技術(shù)獎二等獎,2015獲北京市科學(xué)技術(shù)獎一等獎。獲專利10余項,發(fā)表學(xué)術(shù)論文數(shù)十篇。
第1章 視覺感知技術(shù)基本原理 1
1.1 視覺傳感器與視覺系統(tǒng) 1
1.1.1 視覺傳感器定義及分類 1
1.1.2 視覺系統(tǒng) 4
1.2 視覺成像基本原理 5
1.3 視覺系統(tǒng)標(biāo)定 11
1.3.1 相機標(biāo)定方法 11
1.3.2 機器人手眼標(biāo)定 18
1.4 主要的視覺測量方法 22
1.4.1 單目視覺測量方法 22
1.4.2 雙目立體視覺測量方法 33
本章小結(jié) 36
參考文獻 36
第2章 觸覺/力覺感知原理 41
2.1 觸覺信息獲取與處理 41
2.1.1 觸覺傳感器的基本分類 41
2.1.2 觸覺信息處理 43
2.1.3 柔性觸覺傳感器技術(shù) 44
2.2 力/力矩信息獲取與處理 49
2.2.1 力/力矩傳感器的基本分類 49
2.2.2 力傳感器標(biāo)定技術(shù) 53
本章小結(jié) 54
參考文獻 55
第3章 智能視覺感知方法與技術(shù) 57
3.1 經(jīng)典的視覺感知方法 57
3.1.1 視覺匹配 57
3.1.2 視覺顯著性 62
3.2 基于機器學(xué)習(xí)方法的視覺感知 63
3.2.1 集成學(xué)習(xí)(Adaboosting) 63
3.2.2 局部二值模式(LBP) 64
3.2.3 特征點匹配方法 64
3.2.4 方向梯度直方圖(HOG) 65
3.2.5 支持向量機 66
3.3深度學(xué)習(xí)視覺感知 67
3.3.1 經(jīng)典的視覺感知網(wǎng)絡(luò)結(jié)構(gòu) 67
3.3.2 基于深度學(xué)習(xí)的目標(biāo)感知 72
3.4 面向少量樣本學(xué)習(xí)的視覺感知方法 76
3.4.1孿生網(wǎng)絡(luò) 77
3.4.2零樣本學(xué)習(xí) 79
3.5 視覺引導(dǎo)的機器人抓取技術(shù) 81
3.5.1 基于深度學(xué)習(xí)的抓取技術(shù) 81
3.4.2 基于深度強化學(xué)習(xí)的抓取技術(shù) 85
本章小結(jié) 87
參考文獻 88
第4章 機器人觸/力覺智能感知 92
4.1 機器人觸覺感知 92
4. 2 基于觸覺感知的機器人操作 94
4.2.1 基于觸覺信息的抓取穩(wěn)定性分析 95
4.2.2 基于觸覺信息的目標(biāo)識別 98
4.2.3 基于觸覺的其它應(yīng)用 103
4.3 機器人力覺感知及操作 105
4.4 阻抗控制和力/位混合控制 107
4.4.1 機器人運動學(xué)和動力學(xué)模型 107
4.4.2 阻抗控制方法 107
4.4.3 力/位混合控制 110
4.5 力控制和接觸約束融合方法 112
4.5.1 接觸約束 112
4.5.2 接觸約束和力控制的融合 115
4.6 基于力智能感知的操控 120
本章小結(jié) 124
參考文獻 124
第5章 多通道信息融合的人機對話 128
5.1 多通道人機對話一般框架 128
5.2 面向人機對話的多通道信息處理 129
5.2.1 不同通道信息處理的認(rèn)知假定 130
5.2.2 不同通道信息處理的一般計算模式 130
5.2.3 多道信息融合的心理學(xué)假定和認(rèn)知模型 131
5.2.4 基于深度感知的信息融合 135
5.3 面向人機對話的對話管理 141
5.3.1 任務(wù)導(dǎo)向的對話管理 142
5.3.2 非任務(wù)導(dǎo)向的對話生成 154
5.3.3對話交互學(xué)習(xí) 159
5.4 多通道信息融合局限及人機對話未來突破方向 164
本章小結(jié) 164
參考文獻 165
第6章 月面巡視器視覺定位 175
6.1巡視器視覺導(dǎo)航定位現(xiàn)狀 175
6.1.1研究現(xiàn)狀 175
6.1.2 巡視器視覺定位中的關(guān)鍵技術(shù) 178
6.1.3 圖像特征信息提取與匹配算法 179
6.2 兩幀之間的運動估計問題 192
6.2.1 基于對極幾何的運動估計 192
6.2.2 基于PNP運動估計 194
6.2.3 基于ICP運動估計 196
6.3 位姿和位置信息的捆綁約束調(diào)整 198
6.3.1 光束法解析攝影測量 198
6.3.2 BA稀疏性與圖優(yōu)化 201
6.4 位姿圖優(yōu)化 204
6.5 慣性導(dǎo)航技術(shù) 205
6.5.1 慣導(dǎo)的位姿解算原理 205
6.5.2 航位推算 209
6.6 IMU與雙目視覺定位技術(shù)的融合 210
6.6.1 ORB-SLAM系統(tǒng)框架 210
6.6.2 IMU與視覺定位技術(shù)融合 211
6.6.3 VIORB實驗結(jié)果測試 215
本章小結(jié) 216
參考文獻 217
第7章 空間非合作目標(biāo)視覺感知 220
7.1 概述 220
7.2 非合作目標(biāo)的視覺測量 224
7.2.1 非合作目標(biāo)位姿單目視覺測量技術(shù) 224
7.2.2非合作目標(biāo)位姿雙目視覺測量技術(shù) 228
7.3 非合作目標(biāo)抓捕 235
7.3.1非合作目標(biāo)的幾種典型抓捕方式 236
7.3.2抓捕過程接觸動力學(xué)分析 238
7.3.3 抓捕過程的阻抗控制 239
本章小結(jié) 240
參考文獻 240