深度學(xué)習(xí)架構(gòu)與實(shí)踐
定 價(jià):89 元
叢書名:深度學(xué)習(xí)系列
- 作者:魯遠(yuǎn)耀
- 出版時(shí)間:2021/7/1
- ISBN:9787111679790
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類:TP181
- 頁碼:248
- 紙張:
- 版次:
- 開本:16開
本書講述了深度學(xué)習(xí)架構(gòu)與實(shí)踐,共分為兩個(gè)部分,第1部分(即第1~6章)為基礎(chǔ)理論,主要對(duì)深度學(xué)習(xí)的理論知識(shí)進(jìn)行了詳細(xì)的講解;第2部分(即第7~12章)為應(yīng)用實(shí)踐,以具體的實(shí)際案例為場景,通過理論和實(shí)踐相結(jié)合的講解方式使讀者能夠?qū)ι疃葘W(xué)習(xí)技術(shù)有更好的理解。本書可以為讀者提供一條輕松、快速入門深度學(xué)習(xí)的路徑,有側(cè)重地闡明深度學(xué)習(xí)的經(jīng)典知識(shí)和核心要點(diǎn),從架構(gòu)和實(shí)踐兩個(gè)方面,讓讀者對(duì)深度學(xué)習(xí)的系統(tǒng)架構(gòu)和若干領(lǐng)域的應(yīng)用實(shí)踐有清晰和深入的掌握。
本書適合計(jì)算機(jī)軟件相關(guān)專業(yè)的高年級(jí)本科生或研究生,以及所有想要學(xué)習(xí)深度學(xué)習(xí)或從事計(jì)算機(jī)視覺算法開發(fā)的讀者閱讀。
目錄
前言
緒論1
第1章 深度學(xué)習(xí)的架構(gòu)8
1.1如何區(qū)分人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)8
1.1.1人工智能:從概念提出到走向繁榮8
1.1.2機(jī)器學(xué)習(xí):一種實(shí)現(xiàn)人工智能的方法9
1.1.3深度學(xué)習(xí):一種實(shí)現(xiàn)機(jī)器學(xué)習(xí)的技術(shù)9
1.1.4人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系9
1.2深度學(xué)習(xí)的發(fā)展歷史及研究現(xiàn)狀10
1.2.1深度學(xué)習(xí)的發(fā)展歷史10
1.2.2深度學(xué)習(xí)的研究現(xiàn)狀11
1.3深度學(xué)習(xí)的基本內(nèi)容及理論基礎(chǔ)13
1.3.1深度學(xué)習(xí)的基本內(nèi)容13
1.3.2深度學(xué)習(xí)的理論基礎(chǔ)15
1.4深度學(xué)習(xí)的發(fā)展趨勢(shì)與未來15
1.4.1深度學(xué)習(xí)的發(fā)展趨勢(shì)15
1.4.2深度學(xué)習(xí)的未來16
第2章 深度學(xué)習(xí)相關(guān)數(shù)學(xué)基礎(chǔ)17
2.1線性代數(shù)17
2.1.1標(biāo)量、向量、矩陣和張量17
2.1.2矩陣和向量相乘18
2.1.3單位矩陣和逆矩陣19
2.1.4線性相關(guān)和生成子空間19
2.1.5范數(shù)21
2.1.6特殊類型的矩陣和向量22
2.1.7特征分解23
2.1.8奇異值分解24
2.1.9Moore-Penrose偽逆25
2.1.10跡運(yùn)算25
2.1.11行列式26
2.1.12主成分分析26
2.2概率論與信息論29
2.2.1隨機(jī)試驗(yàn)、頻率與概率、隨機(jī)變量29
2.2.2隨機(jī)變量的分布情況30
2.2.3二維隨機(jī)變量31
2.2.4期望、方差、協(xié)方差、相關(guān)系數(shù)33
2.2.5常用的概率分布34
2.2.6常用函數(shù)的有用性質(zhì)37
2.2.7連續(xù)型變量的技術(shù)細(xì)節(jié)39
2.2.8信息論40
2.2.9結(jié)構(gòu)化概率模型41
2.3擬合、梯度下降與傳播43
2.3.1過擬合和欠擬合43
2.3.2隨機(jī)梯度下降44
2.3.3正向傳播與反向傳播47
第3章 神經(jīng)網(wǎng)絡(luò)的架構(gòu)48
3.1神經(jīng)網(wǎng)絡(luò)與神經(jīng)元48
3.2深度神經(jīng)網(wǎng)絡(luò)的概念與結(jié)構(gòu)49
3.2.1深度神經(jīng)網(wǎng)絡(luò)的概念49
3.2.2深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)49
3.3深度神經(jīng)網(wǎng)絡(luò)的分類50
3.3.1前饋深度網(wǎng)絡(luò)50
3.3.2反饋深度網(wǎng)絡(luò)51
3.3.3雙向深度網(wǎng)絡(luò)51
3.4自動(dòng)編碼器與玻爾茲曼機(jī)51
3.4.1自動(dòng)編碼器51
3.4.2玻爾茲曼機(jī)52
第4章 卷積神經(jīng)網(wǎng)絡(luò)53
4.1卷積神經(jīng)網(wǎng)絡(luò)的概念53
4.2卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)54
4.2.1卷積層55
4.2.2池化層56
4.2.3全連接層56
4.3非線性層與激活函數(shù)57
4.3.1Sigmoid激活函數(shù)57
4.3.2Tanh函數(shù)59
4.3.3Relu函數(shù)60
4.4感受野與權(quán)值共享61
4.4.1局部感受野61
4.4.2權(quán)值共享61
4.5卷積神經(jīng)網(wǎng)絡(luò)與反卷積神經(jīng)網(wǎng)絡(luò)62
4.5.1卷積神經(jīng)網(wǎng)絡(luò)及其特點(diǎn)62
4.5.2反卷積神經(jīng)網(wǎng)絡(luò)及其特點(diǎn)63
4.6卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練63
第5章 循環(huán)神經(jīng)網(wǎng)絡(luò)64
5.1RNN的概念64
5.2RNN的結(jié)構(gòu)64
5.3RNN的訓(xùn)練65
5.3.1反向傳播算法的原理65
5.3.2反向傳播算法的步驟65
5.4RNN的實(shí)現(xiàn)71
5.4.1梯度爆炸與梯度消失71
5.4.2基于RNN的語言模型例子71
5.4.3語言模型訓(xùn)練過程73
5.5RNN的發(fā)展74
5.5.1雙向循環(huán)神經(jīng)網(wǎng)絡(luò)74
5.5.2長短時(shí)記憶結(jié)構(gòu)75
第6章 生成對(duì)抗網(wǎng)絡(luò)776.1GAN的概念77
6.1.1對(duì)抗思想與GAN77
6.1.2最大似然估計(jì)及最優(yōu)化問題79
6.1.3GAN的訓(xùn)練過程81
6.2GAN的原理82
6.2.1生成器82
6.2.2判別器83
6.3GAN的應(yīng)用84
6.4GAN的發(fā)展85
6.4.1GAN的優(yōu)缺點(diǎn)85
6.4.2GAN的未來發(fā)展方向86
第7章 Python相關(guān)基礎(chǔ)877.1Python程序結(jié)構(gòu)87
7.1.1循環(huán)結(jié)構(gòu)87
7.1.2分支結(jié)構(gòu)89
7.2NumPy操作90
7.2.1NumPy的主要特點(diǎn)91
7.2.2ndarray91
7.2.3NumPy-數(shù)據(jù)類型94
7.2.4NumPy-數(shù)組屬性94
7.2.5NumPy-數(shù)組創(chuàng)建例程96
7.2.6NumPy-切片和索引98
7.2.7NumPy-字符串函數(shù)99
7.2.8NumPy-算數(shù)函數(shù)100
7.2.9NumPy-算數(shù)運(yùn)算100
7.2.10NumPy-統(tǒng)計(jì)函數(shù)101
7.2.11NumPy-排序、搜索和計(jì)數(shù)函數(shù)102
7.2.12NumPy-字節(jié)交換103
7.2.13NumPy-副本和視圖103
7.2.14NumPy-矩陣庫104
7.2.15NumPy-線性代數(shù)105
7.3函數(shù)105
7.3.1Python中函數(shù)的應(yīng)用105
7.3.2Python函數(shù)的定義107
7.3.3Python函數(shù)的調(diào)用108
7.3.4為函數(shù)提供說明文檔109
7.4第三方資源110
第8章 TensorFlow、Theano、Caffe的框架與安裝113
8.1TensorFlow的框架與安裝113
8.1.1TensorFlow的簡介113
8.1.2TensorFlow的架構(gòu)113
8.1.3TensorFlow的特點(diǎn)114
8.1.4TensorFlow的安裝114
8.2Theano的框架與安裝118
8.2.1Theano的簡介118
8.2.2Theano的安裝119
8.3Caffe的架構(gòu)與安裝121
8.3.1Caffe的簡介121
8.3.2Caffe的安裝122
第9章 TensorFlow、Theano、Caffe的原理及應(yīng)用124
9.1TensorFlow的原理及應(yīng)用124
9.1.1TensorFlow的工作原理124
9.1.2TensorFlow的簡單應(yīng)用126
9.1.3TensorFlow的復(fù)雜應(yīng)用129
9.2Theano的基本語法及應(yīng)用145
9.2.1Theano的基本語法145
9.2.2Theano在Windows下的常用實(shí)例149
9.2.3用Theano來編寫一個(gè)簡單的神經(jīng)網(wǎng)絡(luò)154
9.3Caffe的結(jié)構(gòu)、寫法及應(yīng)用157
9.3.1Caffe的結(jié)構(gòu)157
9.3.2Caffe的寫法157
9.3.3Caffe的訓(xùn)練與測(cè)試167
第10章 手寫數(shù)字識(shí)別實(shí)例177
10.1字符識(shí)別的意義177
10.2字符識(shí)別的設(shè)計(jì)與實(shí)現(xiàn)177
10.2.1實(shí)驗(yàn)簡介177
10.2.2實(shí)驗(yàn)環(huán)境搭建178
10.3單層神經(jīng)網(wǎng)絡(luò)搭建178
10.3.1網(wǎng)絡(luò)搭建過程178
10.3.2梯度下降180
10.4多層神經(jīng)網(wǎng)絡(luò)搭建183
10.4.1Sigmoid激活函數(shù)184
10.4.2Relu激活函數(shù)184
10.4.3衰減學(xué)習(xí)率187
10.4.4添加dropout解決過擬合現(xiàn)象188
10.5卷積神經(jīng)網(wǎng)絡(luò)190
第11章 自動(dòng)生成圖像描述實(shí)例195
11.1自動(dòng)生成圖像描述的目標(biāo)195
11.2自動(dòng)生成圖像描述的設(shè)計(jì)198
11.3語言生成模型201
11.4自動(dòng)生成圖像描述的實(shí)現(xiàn)203
11.5實(shí)驗(yàn)結(jié)果及分析221
第12章 唇語識(shí)別實(shí)例225
12.1唇語識(shí)別技術(shù)的目標(biāo)225
12.2特征提取225
12.2.1CNN的唇部視覺特征提取225
12.2.2RNN的時(shí)序特征提取226
12.2.3特征分類算法SVM、KNN、Softmax228
12.3唇語識(shí)別模型網(wǎng)絡(luò)架構(gòu)230
12.3.1抽取視頻幀算法與視頻唇部區(qū)域定位230
12.3.2圖像特征提取網(wǎng)絡(luò)架構(gòu)233
12.3.3基于注意力機(jī)制的時(shí)間特征提取架構(gòu)234
12.3.4唇語識(shí)別模型與整體識(shí)別流程235
12.4實(shí)驗(yàn)結(jié)果及分析239
12.4.1數(shù)據(jù)集與預(yù)處理239
12.4.2實(shí)驗(yàn)結(jié)果239
12.4.3可視化分析242
參考文獻(xiàn)246