深度學(xué)習(xí)應(yīng)用與實(shí)戰(zhàn)(全彩)
定 價(jià):109 元
叢書(shū)名:人工智能應(yīng)用與實(shí)戰(zhàn)系列
- 作者:韓少云 等
- 出版時(shí)間:2023/5/1
- ISBN:9787121453656
- 出 版 社:電子工業(yè)出版社
- 中圖法分類(lèi):TP181
- 頁(yè)碼:336
- 紙張:
- 版次:01
- 開(kāi)本:16開(kāi)
本書(shū)系統(tǒng)介紹了神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí),并結(jié)合實(shí)際應(yīng)用場(chǎng)景和綜合案例,讓讀者深入了解深度學(xué)習(xí)。全書(shū)共16章,分為4個(gè)部分。第1部分介紹了深度學(xué)習(xí)基礎(chǔ)算法與應(yīng)用,主要包括神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的相關(guān)概念、多層神經(jīng)網(wǎng)絡(luò)的基本原理和具體應(yīng)用、卷積神經(jīng)網(wǎng)絡(luò)的原理及項(xiàng)目案例實(shí)現(xiàn)、優(yōu)化算法與模型管理。第2部分介紹了深度學(xué)習(xí)進(jìn)階算法與應(yīng)用,主要包括經(jīng)典的深度卷積神經(jīng)網(wǎng)絡(luò),ResNet、DenseNet和MobileNet,目標(biāo)檢測(cè)的基本概念和常見(jiàn)算法,循環(huán)神經(jīng)網(wǎng)絡(luò)的基本概念和具體應(yīng)用。第3部分介紹了時(shí)空數(shù)據(jù)模型與應(yīng)用,主要包括CNN-LSTM混合模型的基本概念和具體應(yīng)用,多元時(shí)間序列神經(jīng)網(wǎng)絡(luò)、注意力機(jī)制和Transformer的基本結(jié)構(gòu)和具體應(yīng)用。第4部分介紹了生成對(duì)抗網(wǎng)絡(luò)及其應(yīng)用,主要包括生成對(duì)抗網(wǎng)絡(luò)的基本概念及其模型的結(jié)構(gòu)和訓(xùn)練過(guò)程,使用檢測(cè)模型、識(shí)別模型對(duì)車(chē)牌進(jìn)行檢測(cè)與識(shí)別。本書(shū)適合對(duì)人工智能、機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)等感興趣的讀者閱讀,也適合作為本科院校和高等職業(yè)院校人工智能相關(guān)專(zhuān)業(yè)的教材。本書(shū)可以幫助有一定基礎(chǔ)的讀者查漏補(bǔ)缺,使其深入理解和掌握與深度學(xué)習(xí)相關(guān)的原理及方法,并能提高其解決實(shí)際問(wèn)題的能力。
韓少云是達(dá)內(nèi)科技(中國(guó))有限公司創(chuàng)始人、總裁/CEO。其麾下的達(dá)內(nèi)時(shí)代科技集團(tuán)是國(guó)內(nèi)知名的互聯(lián)網(wǎng)-IT教育培訓(xùn)單位,是一站式互聯(lián)網(wǎng)人才基地,專(zhuān)注IT職業(yè)教育人才服務(wù)多年,擁有300多家培訓(xùn)中心,幫助學(xué)員實(shí)現(xiàn)一地學(xué)習(xí)全國(guó)就業(yè)。
目 錄
第 1 部分 深度學(xué)習(xí)基礎(chǔ)算法與應(yīng)用
第 1 章 單層神經(jīng)網(wǎng)絡(luò) 2
1.1 深度學(xué)習(xí)的基本概念 2
1.1.1 深度學(xué)習(xí)的概述 2
1.1.2 神經(jīng)網(wǎng)絡(luò) 3
1.2 深度學(xué)習(xí)框架 5
1.2.1 常見(jiàn)框架介紹 5
1.2.2 張量 6
1.3 單層神經(jīng)網(wǎng)絡(luò)的概述 6
1.3.1 回歸模型 6
1.3.2 二分類(lèi)模型 10
1.3.3 多分類(lèi)模型 13
1.4 單層神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)鳶尾花分類(lèi) 17
1.4.1 使用 TensorFlow 實(shí)現(xiàn)鳶尾花分類(lèi) 17
1.4.2 使用 PyTorch 實(shí)現(xiàn)鳶尾花分類(lèi) 20
本章總結(jié) 22
作業(yè)與練習(xí) 22
第 2 章 多層神經(jīng)網(wǎng)絡(luò) 24
2.1 多層神經(jīng)網(wǎng)絡(luò)的概述 24
2.1.1 隱藏層的意義 24
2.1.2 激活函數(shù) 25
2.1.3 反向傳播 27
2.1.4 異或處理代碼實(shí)現(xiàn) 28
2.2 梯度下降算法 30
2.2.1 批量梯度下降算法 30
2.2.2 隨機(jī)梯度下降算法 31
2.2.3 小批量梯度下降算法 31
2.3 正則化處理 31
2.3.1 L1 正則化與 L2 正則化 31
2.3.2 Dropout 正則化 31
2.3.3 提前停止 32
2.3.4 批量標(biāo)準(zhǔn)化 32
2.4 手寫(xiě)數(shù)字識(shí)別
2.4.1 MNIST 數(shù)據(jù)集簡(jiǎn)介 32
2.4.2 使用 TensorFlow 實(shí)現(xiàn)MNIST 手寫(xiě)數(shù)字分類(lèi) 33
2.4.3 使用 PyTorch 實(shí)現(xiàn)MNIST 手寫(xiě)數(shù)字分類(lèi) 36
本章總結(jié) 39
作業(yè)與練習(xí) 39
第 3 章 卷積神經(jīng)網(wǎng)絡(luò) 41
3.1 圖像基礎(chǔ)原理 41
3.1.1 像素 41
3.1.2 灰度值 42
3.1.3 彩色圖像表達(dá) 42
3.2 卷積的作用及原理 43
3.2.1 卷積的概述 43
3.2.2 卷積運(yùn)算的原理 43
3.2.3 卷積運(yùn)算的方式 44
3.2.4 卷積表達(dá)的含義 44
3.2.5 卷積相關(guān)術(shù)語(yǔ) 45
3.3 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu) 46
3.3.1 卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu) 46
3.3.2 卷積層 47
3.3.3 ReLU 層 47
3.3.4 池化層 48
3.3.5 全連接層 49
3.4 基于卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)MNIST 手寫(xiě)數(shù)字識(shí)別 49
3.4.1 構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型 49
3.4.2 使用 TensorFlow 實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò) MNIST手寫(xiě)數(shù)字分類(lèi) 50
3.4.3 使用 PyTorch 實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò) MNIST 手寫(xiě)
數(shù)字分類(lèi) 52
本章總結(jié) 55
作業(yè)與練習(xí) 55
第 4 章 優(yōu)化算法與模型管理 57
4.1 數(shù)據(jù)增強(qiáng) 57
4.1.1 數(shù)據(jù)增強(qiáng)的意義 57
4.1.2 使用 TensorFlow 實(shí)現(xiàn)數(shù)據(jù)增強(qiáng) 58
4.1.3 使用 PyTorch 實(shí)現(xiàn)數(shù)據(jù)增強(qiáng) 59
4.2 梯度下降優(yōu)化 60
4.2.1 梯度下降優(yōu)化的必要性 60
4.2.2 Momentum 優(yōu)化器 60
4.2.3 Adagrad 優(yōu)化器 60
4.2.4 RMSprop 優(yōu)化器 61
4.2.5 Adam 優(yōu)化器 62
4.3 模型的保存與加載 62
4.3.1 TensorFlow 模型保存與加載 62
4.3.2 PyTorch 模型保存與加載 63
4.4 項(xiàng)目案例:車(chē)輛識(shí)別 64
4.4.1 汽車(chē)數(shù)據(jù)集 65
4.4.2 項(xiàng)目案例實(shí)現(xiàn) 65
本章總結(jié) 70
作業(yè)與練習(xí) 70
第 2 部分 深度學(xué)習(xí)進(jìn)階算法與應(yīng)用
第 5 章 深度卷積神經(jīng)網(wǎng)絡(luò) 74
5.1 深度卷積神經(jīng)網(wǎng)絡(luò)的概述 74
5.2 AlexNet 75
5.2.1 AlexNet 的網(wǎng)絡(luò)結(jié)構(gòu) 75
5.2.2 構(gòu)建 AlexNet 模型 77
5.3 VGG 79
5.3.1 VGG 的網(wǎng)絡(luò)結(jié)構(gòu) 79
5.3.2 構(gòu)建 VGG 模型 80
5.4 NiN 81
5.4.1 NiN 的網(wǎng)絡(luò)結(jié)構(gòu) 81
5.4.2 構(gòu)建 NiN 模型 83
5.5 GoogLeNet 85
5.5.1 GoogLeNet 的網(wǎng)絡(luò)結(jié)構(gòu) 85
5.5.2 構(gòu)建 GoogLeNet 模型 88
5.6 項(xiàng)目案例:車(chē)輛多屬性識(shí)別 90
5.6.1 多屬性識(shí)別 91
5.6.2 項(xiàng)目案例實(shí)現(xiàn) 91
本章總結(jié) 100
作業(yè)與練習(xí) 100
第 6 章 高效的卷積神經(jīng)網(wǎng)絡(luò) 102
6.1 ResNet 102
6.1.1 ResNet 的網(wǎng)絡(luò)結(jié)構(gòu) 102
6.1.2 構(gòu)建 ResNet 模型 103
6.2 DenseNet 109
6.2.1 DenseNet 的網(wǎng)絡(luò)結(jié)構(gòu) 110
6.2.2 構(gòu)建 DenseNet 模型 111
6.3 MobileNet 112
6.3.1 MobileNet 的網(wǎng)絡(luò)結(jié)構(gòu) 112
6.3.2 構(gòu)建 MobileNet 模型 113
6.4 項(xiàng)目案例:違規(guī)駕駛行為識(shí)別 114
本章總結(jié) 126
作業(yè)與練習(xí) 126
第 7 章 目標(biāo)檢測(cè) 128
7.1 目標(biāo)檢測(cè)的概述 128
7.2 兩階段目標(biāo)檢測(cè) 129
7.2.1 R-CNN 129
7.2.2 Fast R-CNN 和Faster R-CNN 130
7.2.3 Mask R-CNN 132
7.3 一階段目標(biāo)檢測(cè) 133
7.3.1 YOLO 系列 133
7.3.2 SSD 137
7.4 項(xiàng)目案例:車(chē)輛檢測(cè) 137
本章總結(jié) 144
作業(yè)與練習(xí) 144
第 8 章 循環(huán)神經(jīng)網(wǎng)絡(luò) 145
8.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的概述 145
8.2 LSTM 神經(jīng)網(wǎng)絡(luò) 147
8.2.1 LSTM 神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu) 147
8.2.2 LSTM 門(mén)機(jī)制 147
8.3 GRU 神經(jīng)網(wǎng)絡(luò) 148
8.3.1 GRU 神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu) 148
8.3.2 GRU 門(mén)機(jī)制 148
8.4 項(xiàng)目案例:文本生成 149
本章總結(jié) 159
作業(yè)與練習(xí) 159
第 9 章 深度循環(huán)神經(jīng)網(wǎng)絡(luò) 160
9.1 深度循環(huán)神經(jīng)網(wǎng)絡(luò)的概述 160
9.1.1 深度循環(huán)神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 160
9.1.2 雙向 LSTM 神經(jīng)網(wǎng)絡(luò) 162
9.2 項(xiàng)目案例:短時(shí)交通流量預(yù)測(cè) 163
9.2.1 解決方案 163
9.2.2 項(xiàng)目案例實(shí)現(xiàn) 164
本章總結(jié) 177
作業(yè)與練習(xí) 177
第 3 部分 時(shí)空數(shù)據(jù)模型與應(yīng)用
第 10 章 CNN-LSTM 混合模型 180
10.1 編碼器-解碼器模型 180
10.1.1 模型結(jié)構(gòu) 180
10.1.2 構(gòu)建編碼器-解碼器模型 182
10.2 項(xiàng)目案例:基于時(shí)空特征的交通事故預(yù)測(cè) 183
10.2.1 數(shù)據(jù)集和評(píng)價(jià)指標(biāo) 184
10.2.2 項(xiàng)目案例實(shí)現(xiàn) 184
本章總結(jié) 193
作業(yè)與練習(xí) 193
第 11 章 多元時(shí)間序列神經(jīng)網(wǎng)絡(luò) 195
11.1 圖 195
11.1.1 結(jié)構(gòu)和信號(hào) 196
11.1.2 圖結(jié)構(gòu) 197
11.1.3 圖神經(jīng)網(wǎng)絡(luò) 197
11.2 圖卷積網(wǎng)絡(luò) 198
11.2.1 基本原理 198
11.2.2 數(shù)學(xué)運(yùn)算 199
11.2.3 使用 GCN 模型實(shí)現(xiàn)圖像識(shí)別 200
11.3 多元時(shí)間序列神經(jīng)網(wǎng)絡(luò)的概述 205
11.3.1 DCRNN 205
11.3.2 seq2seq 模型 207
11.4 項(xiàng)目案例:基于 DCRNN實(shí)現(xiàn)交通流量預(yù)測(cè) 209
11.4.1 解決方案 209
11.4.2 項(xiàng)目案例實(shí)現(xiàn) 210
本章總結(jié) 226
作業(yè)與練習(xí) 227
第 12 章 MTGNN 與交通流量預(yù)測(cè) 228
12.1 基于 MTGNN 實(shí)現(xiàn)交通流量預(yù)測(cè) 228
12.1.1 MTGNN 的網(wǎng)絡(luò)結(jié)構(gòu) 229
12.1.2 MTGNN 時(shí)空卷積 229
12.2 PyTorch-Lightning 231
12.2.1 安裝 231
12.2.2 基本使用 231
12.3 項(xiàng)目案例:基于 MTGNN實(shí)現(xiàn)交通流量預(yù)測(cè) 232
本章總結(jié) 245
作業(yè)與練習(xí) 246
第 13 章 注意力機(jī)制 247
13.1 注意力機(jī)制的概述 247
13.1.1 機(jī)器翻譯中的注意力機(jī)制 248
13.1.2 自注意力機(jī)制的概述 251
13.2 項(xiàng)目案例:視頻異常檢測(cè) 253
本章總結(jié) 266
作業(yè)與練習(xí) 266
第 14 章 Transformer 268
14.1 Transformer 的概述 268
14.1.1 Transformer 的簡(jiǎn)介 269
14.1.2 Transformer 的總體結(jié)構(gòu) 269
14.2 Self-Attention 機(jī)制 271
14.2.1 Self-Attention 機(jī)制的原理 271
14.2.2 Self-Attention 的計(jì)算過(guò)程 272
14.2.3 Positional Encoding 和LayerNorm 273
14.3 項(xiàng)目案例:軌跡預(yù)測(cè) 275
14.3.1 解決方案 275
14.3.2 車(chē)輛軌跡預(yù)測(cè)數(shù)據(jù)集 276
14.3.3 實(shí)現(xiàn)過(guò)程 278
本章總結(jié) 290
作業(yè)與練習(xí) 290
第 4 部分 生成對(duì)抗網(wǎng)絡(luò)及其應(yīng)用
第 15 章 生成對(duì)抗網(wǎng)絡(luò) 294
15.1 生成對(duì)抗網(wǎng)絡(luò)的概述 294
15.1.1 GAN 模型的結(jié)構(gòu) 294
15.1.2 GAN 模型的訓(xùn)練過(guò)程 295
15.2 TecoGAN 模型 296
15.2.1 TecoGAN 模型的結(jié)構(gòu) 297
15.2.2 TecoGAN 損失函數(shù) 297
15.2.3 TecoGAN 評(píng)價(jià)指標(biāo) 298
15.3 項(xiàng)目案例:視頻超分辨率 298
本章總結(jié) 306
作業(yè)與練習(xí) 306
第 16 章 車(chē)牌檢測(cè)與識(shí)別 307
16.1 項(xiàng)目案例:車(chē)牌檢測(cè)與識(shí)別 307
16.1.1 數(shù)據(jù)集 308
16.1.2 MTCNN 模型 309
16.1.3 LPRNet 311
16.2 項(xiàng)目案例實(shí)現(xiàn) 312
本章總結(jié) 323
作業(yè)與練習(xí) 324