深度卷積神經(jīng)網(wǎng)絡(luò)原理與實踐
定 價:62 元
- 作者:周浦城 等
- 出版時間:2020/9/1
- ISBN:9787121396632
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP183
- 頁碼:272
- 紙張:
- 版次:01
- 開本:16K
深度學(xué)習(xí)是人工智能與機器學(xué)習(xí)領(lǐng)域的重要研究分支,深度卷積神經(jīng)網(wǎng)絡(luò)是其核心內(nèi)容之一。本書作為一本深度卷積神經(jīng)網(wǎng)絡(luò)方面的入門與提高書籍,目的是使讀者通過學(xué)習(xí)了解和掌握卷積神經(jīng)網(wǎng)絡(luò)的理論基礎(chǔ)與應(yīng)用方法。全書共10章,分為三個部分:第1~3章為第一部分,主要介紹卷積神經(jīng)網(wǎng)絡(luò)基本理論;第4~5章為第二部分,概述卷積神經(jīng)網(wǎng)絡(luò)相關(guān)工具和框架;第三部分為第6~10章,介紹了數(shù)據(jù)集、數(shù)據(jù)處理及網(wǎng)絡(luò)訓(xùn)練知識,最后給出了卷積神經(jīng)網(wǎng)絡(luò)的三個典型應(yīng)用實例。本書可作為高等學(xué)校人工智能、計算機科學(xué)與技術(shù)、信息工程、自動化等專業(yè)高年級本科生或研究生深度學(xué)習(xí)相關(guān)課程的教材,也適合對卷積神經(jīng)網(wǎng)絡(luò)感興趣的研究人員和工程技術(shù)人員參考閱讀。
周浦城,博士,副教授,先后主持或參加國家863、自然科學(xué)基金等課題20余項,公開發(fā)表論文80余篇,其中SCI檢索3篇、EI檢索45篇。
目錄
第1章 機器學(xué)習(xí)基礎(chǔ) 1
1.1 機器學(xué)習(xí)概述 1
1.1.1 機器學(xué)習(xí)的概念 1
1.1.2 機器學(xué)習(xí)的任務(wù) 2
1.1.3 機器學(xué)習(xí)的發(fā)展簡史 3
1.1.4 機器學(xué)習(xí)的典型應(yīng)用 5
1.2 機器學(xué)習(xí)策略 6
1.2.1 有監(jiān)督學(xué)習(xí) 6
1.2.2 無監(jiān)督學(xué)習(xí) 6
1.2.3 半監(jiān)督學(xué)習(xí) 6
1.2.4 強化學(xué)習(xí) 7
1.3 模型評估與選擇 7
1.3.1 歸納偏好 7
1.3.2 數(shù)據(jù)集劃分 8
1.3.3 性能度量 9
1.3.4 過擬合和欠擬合 10
1.4 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 11
1.4.1 生物神經(jīng)元 11
1.4.2 人工神經(jīng)網(wǎng)絡(luò) 12
1.4.3 深度學(xué)習(xí) 14
1.5 本章小結(jié) 16
第2章 卷積神經(jīng)網(wǎng)絡(luò)基本原理 17
2.1 卷積神經(jīng)網(wǎng)絡(luò)概述 17
2.1.1 卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展 17
2.1.2 卷積神經(jīng)網(wǎng)絡(luò)的基本原理與
組成 18
2.2 卷積層 19
2.2.1 基本卷積運算 19
2.2.2 卷積神經(jīng)網(wǎng)絡(luò)中的卷積運算 21
2.2.3 卷積的作用 22
2.2.4 卷積層及參數(shù) 25
2.2.5 特殊卷積 26
2.3 激活層 29
2.3.1 激活函數(shù)簡述 29
2.3.2 典型的激活函數(shù) 30
2.4 池化層 34
2.4.1 池化操作 34
2.4.2 感受野 35
2.5 全連接層 36
2.6 目標(biāo)函數(shù) 37
2.6.1 常用的損失函數(shù) 38
2.6.2 正則化項 39
2.7 卷積神經(jīng)網(wǎng)絡(luò)的反向傳播 40
2.7.1 全連接層的反向傳播 40
2.7.2 池化層的反向傳播 41
2.7.3 卷積層的反向傳播 42
2.7.4 反向傳播實例 43
2.8 本章小結(jié) 45
第3章 典型卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 46
3.1 LeNet 46
3.1.1 LeNet網(wǎng)絡(luò)結(jié)構(gòu) 46
3.1.2 LeNet主要特點 49
3.2 AlexNet 49
3.2.1 AlexNet網(wǎng)絡(luò)結(jié)構(gòu) 49
3.2.2 AlexNet主要特點 51
3.3 VGGNet 53
3.3.1 VGGNet網(wǎng)絡(luò)結(jié)構(gòu) 53
3.3.2 VGGNet主要特點 55
3.4 GoogLeNet 55
3.4.1 Inception v1與Inception v2 56
3.4.2 Inception v3 59
3.4.3 Inception v4 60
3.5 ResNet 61
3.5.1 殘差網(wǎng)絡(luò)的動機 61
3.5.2 ResNet網(wǎng)絡(luò)結(jié)構(gòu) 62
3.6 其他網(wǎng)絡(luò)結(jié)構(gòu) 64
3.6.1 DenseNet 64
3.6.2 SPPNet 64
3.6.3 SENet 66
3.6.4 MobileNet 66
3.7 本章小結(jié) 67
第4章 Python編程基礎(chǔ) 68
4.1 Python語言簡介 68
4.1.1 Python的發(fā)展簡史 68
4.1.2 Python的主要特點 68
4.1.3 Python的主要應(yīng)用領(lǐng)域 69
4.2 Python編程環(huán)境搭建 70
4.2.1 Windows下的安裝 70
4.2.2 Linux下的安裝 72
4.3 Python程序設(shè)計 73
4.3.1 編程規(guī)范 73
4.3.2 變量與數(shù)據(jù)類型 73
4.3.3 運算符與表達式 77
4.3.4 結(jié)構(gòu)化程序設(shè)計 79
4.3.5 函數(shù)與模塊 81
4.3.6 面向?qū)ο蟪绦蛟O(shè)計 84
4.4 Python基礎(chǔ)工具庫 89
4.4.1 NumPy 89
4.4.2 Pandas 92
4.4.3 Matplotlib 94
4.5 本章小結(jié) 95
第5章 PyTorch基礎(chǔ) 96
5.1 常見的深度學(xué)習(xí)框架簡介 96
5.1.1 Caffe 96
5.1.2 TensorFlow 97
5.1.3 PyTorch 97
5.1.4 其他框架 98
5.2 PyTorch的下載與安裝 98
5.2.1 Linux下的安裝 98
5.2.2 Windows下的安裝 100
5.3 PyTorch中的Tensor 101
5.3.1 Tensor的數(shù)據(jù)類型 101
5.3.2 Tensor的基本操作 102
5.3.3 Tensor的基本運算 104
5.3.4 Tensor的數(shù)據(jù)結(jié)構(gòu) 107
5.4 自動求導(dǎo) 108
5.4.1 計算圖 108
5.4.2 自動求導(dǎo)機制 109
5.5 模型搭建和參數(shù)優(yōu)化 111
5.5.1 神經(jīng)網(wǎng)絡(luò)工具箱 111
5.5.2 常用的神經(jīng)網(wǎng)絡(luò)層 113
5.5.3 前饋神經(jīng)網(wǎng)絡(luò)搭建 116
5.5.4 優(yōu)化器 118
5.6 PyTorch入門實戰(zhàn) 119
5.6.1 手寫數(shù)字識別 119
5.6.2 CIFAR-10數(shù)據(jù)分類 122
5.7 本章小結(jié) 124
第6章 數(shù)據(jù)集與數(shù)據(jù)處理 125
6.1 典型數(shù)據(jù)集及標(biāo)注 125
6.1.1 典型數(shù)據(jù)集 125
6.1.2 數(shù)據(jù)標(biāo)注 129
6.2 數(shù)據(jù)預(yù)處理 132
6.2.1 數(shù)據(jù)清洗 132
6.2.2 數(shù)據(jù)采樣 133
6.2.3 數(shù)據(jù)標(biāo)準(zhǔn)化 133
6.2.4 數(shù)據(jù)集劃分 134
6.3 數(shù)據(jù)增廣 135
6.3.1 幾何變換 135
6.3.2 顏色變換 139
6.3.3 圖像降質(zhì) 140
6.4 PyTorch數(shù)據(jù)集處理實例 142
6.4.1 相關(guān)模塊簡介 142
6.4.2 PyTorch自帶數(shù)據(jù)集的使用 143
6.4.3 Dataset類的繼承 146
6.4.4 一般數(shù)據(jù)集處理 152
6.5 本章小結(jié) 156
第7章 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 157
7.1 網(wǎng)絡(luò)超參數(shù) 157
7.1.1 輸入圖像大小 157
7.1.2 卷積層超參數(shù) 158
7.1.3 池化層超參數(shù) 158
7.2 網(wǎng)絡(luò)的訓(xùn)練 158
7.2.1 參數(shù)初始化 158
7.2.2 網(wǎng)絡(luò)優(yōu)化算法與策略 159
7.2.3 批量規(guī)一化 167
7.2.4 學(xué)習(xí)率的設(shè)定 169
7.2.5 訓(xùn)練數(shù)據(jù)置亂 170
7.3 圖像分類實例 170
7.3.1 網(wǎng)絡(luò)結(jié)構(gòu)超參數(shù)比較 170
7.3.2 不同優(yōu)化算法比較 180
7.4 遷移學(xué)習(xí)與網(wǎng)絡(luò)微調(diào) 181
7.4.1 遷移AlexNet到貓狗數(shù)據(jù)集
實例 181
7.4.2 遷移VGG-19到瓜子數(shù)據(jù)集
實例 186
7.5 本章小結(jié) 189
第8章 圖像去噪 190
8.1 圖像去噪基礎(chǔ)知識 190
8.1.1 噪聲模型 190
8.1.2 傳統(tǒng)圖像去噪方法 192
8.1.3 去噪算法設(shè)計與評價 193
8.2 基于去噪自編碼器的圖像去噪 194
8.2.1 自編碼器簡介 194
8.2.2 MNIST數(shù)據(jù)集實驗 195
8.2.3 Waterloo數(shù)據(jù)集實驗 203
8.3 基于殘差學(xué)習(xí)的圖像去噪 207
8.3.1 基本原理 207
8.3.2 去噪實驗 207
8.3.3 非高斯噪聲的去除 209
8.4 本章小結(jié) 211
第9章 圖像修復(fù) 212
9.1 圖像修復(fù)基礎(chǔ)知識 212
9.1.1 圖像修復(fù)概念 212
9.1.2 基于深度學(xué)習(xí)的圖像修復(fù)
方法 213
9.2 基于DCGAN的圖像修復(fù) 214
9.2.1 生成式對抗網(wǎng)絡(luò) 214
9.2.2 手寫體生成實例 216
9.2.3 基于DCGAN的人臉修復(fù) 221
9.3 基于Context-Encoder的圖像
修復(fù) 226
9.3.1 Context-Encoder模型結(jié)構(gòu) 226
9.3.2 算法與實驗 228
9.4 本章小結(jié) 236
第10章 目標(biāo)檢測 237
10.1 目標(biāo)檢測基礎(chǔ)知識 237
10.1.1 傳統(tǒng)目標(biāo)檢測方法 237
10.1.2 基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)
檢測方法 238
10.1.3 目標(biāo)檢測評價指標(biāo) 238
10.1.4 目標(biāo)檢測數(shù)據(jù)集 239
10.2 兩階段目標(biāo)檢測網(wǎng)絡(luò) 240
10.2.1 R-CNN 240
10.2.2 Fast R-CNN 242
10.2.3 Faster R-CNN 244
10.3 單階段目標(biāo)檢測網(wǎng)絡(luò) 246
10.3.1 YOLO 246
10.3.2 SSD 249
10.4 MMDetection檢測算法庫 250
10.4.1 MMDetection安裝 251
10.4.2 模型的測試 252
10.4.3 模型的訓(xùn)練 253
10.4.4 MMDetection算法配置
文件解析 255
10.4.5 使用自己的數(shù)據(jù)集 258
10.5 本章小結(jié) 261
參考文獻 262