《機(jī)器學(xué)習(xí)與人工智能》涵蓋了與人工智能相關(guān)的機(jī)器學(xué)習(xí)核心方法,包括深度卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、生成對(duì)抗網(wǎng)絡(luò)、蒙特卡羅樹(shù)搜索、強(qiáng)化學(xué)習(xí)。《機(jī)器學(xué)習(xí)與人工智能》也包括一些應(yīng)用非常廣泛的機(jī)器學(xué)習(xí)方法,例如,支持向量機(jī)、決策樹(shù)和隨機(jī)森林、隱馬爾可夫模型、聚類與自組織映射!稒C(jī)器學(xué)習(xí)與人工智能》還包含一些重要的大數(shù)據(jù)分析方法,如主成分分析、回歸分析等。
更多科學(xué)出版社服務(wù),請(qǐng)掃碼獲取。
目錄
第1章 導(dǎo)言 1
1.1 機(jī)器學(xué)習(xí)的概念 1
1.2 機(jī)器學(xué)習(xí)的類別 1
1.3 機(jī)器學(xué)習(xí)和其他領(lǐng)域的關(guān)系 2
1.4 人工智能的發(fā)展歷程 3
1.5 機(jī)器學(xué)習(xí)和人工智能的關(guān)系 5
第2章 機(jī)器學(xué)習(xí)基礎(chǔ) 7
2.1 概率和統(tǒng)計(jì)基礎(chǔ) 7
2.1.1 概率 7
2.1.2 隨機(jī)變量 8
2.1.3 線性相關(guān) 9
2.1.4 常用概率分布 10
2.1.5 貝葉斯定理 11
2.2 凸函數(shù) 12
2.3 極大似然估計(jì) 13
2.4 熵和散度 13
2.5 主成分分析 15
2.5.1 數(shù)據(jù)標(biāo)準(zhǔn)化 15
2.5.2 數(shù)據(jù)矩陣的正交變換 16
2.5.3 主成分 18
2.5.4 因子和因子載荷 18
2.6 隨機(jī)梯度下降算法 19
2.6.1 函數(shù)的梯度和方向?qū)?shù) 19
2.6.2 梯度下降算法 20
2.6.3 隨機(jī)梯度下降 20
2.6.4 動(dòng)量 21
2.7 過(guò)擬合和欠擬合 22
2.8 交叉驗(yàn)證 22
2.9 二分類模型的評(píng)價(jià) 23
2.10 機(jī)器學(xué)習(xí)的工具包 26
第3章 回歸分析 27
3.1 回歸分析問(wèn)題 27
3.2 線性回歸分析 28
3.2.1 線性回歸分析問(wèn)題 28
3.2.2 線性回歸形式 29
3.2.3 簡(jiǎn)單線性回歸 29
3.3 Logistic回歸 30
3.3.1 Logistic函數(shù) 30
3.3.2 線性二分類 31
3.3.3 對(duì)數(shù)似然函數(shù)與代價(jià)函數(shù) 32
3.3.4 最優(yōu)參數(shù)的學(xué)習(xí) 34
第4章 支持向量機(jī) 36
4.1 引言 36
4.2 二分類支持向量機(jī)算法 36
4.2.1 二分類線性支持向量機(jī) 37
4.2.2 二分類非線性支持向量機(jī) 41
4.2.3 核函數(shù) 42
4.3 支持向量機(jī)分類性能的評(píng)價(jià) 43
4.4 序貫最小優(yōu)化算法 44
第5章 聚類和自組織映射 47
5.1 向量、范數(shù)和向量間的距離 47
5.2 K-均值聚類 48
5.3 自組織映射 49
5.3.1 Kohonen模型 49
5.3.2 突觸權(quán)重向量的初始化 50
5.3.3 競(jìng)爭(zhēng)過(guò)程 50
5.3.4 合作過(guò)程 50
5.3.5 自適應(yīng)過(guò)程 52
5.3.6 定序與收斂 53
第6章 隱馬爾可夫模型 55
6.1 馬爾可夫鏈 55
6.2 隱馬爾可夫模型的含義 56
6.2.1 模型的含義 56
6.2.2 統(tǒng)計(jì)推斷 58
6.3 后驗(yàn)概率解碼 58
6.4 狀態(tài)路徑的推斷 60
6.5 隱馬爾可夫模型中參數(shù)的估計(jì) 61
6.5.1 已知完整數(shù)據(jù)的參數(shù)估計(jì) 62
6.5.2 期望最大算法 62
6.5.3 Baum-Welch算法 65
第7章 決策樹(shù)和隨機(jī)森林 67
7.1 樹(shù) 67
7.1.1 圖 67
7.1.2 二叉樹(shù) 68
7.2 決策樹(shù)學(xué)習(xí) 69
7.2.1 度量 69
7.2.2 ID3算法 71
7.2.3 C4.5算法 74
7.3 自舉聚集法 75
7.4 隨機(jī)森林 76
第8章 蒙特卡羅樹(shù)搜索 77
8.1 引言 77
8.2 蒙特卡羅積分 78
8.3 博弈 78
8.3.1 組合博弈 79
8.3.2 博弈樹(shù) 79
8.3.3 極小極大算法 79
8.3.4 多臂老虎機(jī) 81
8.3.5 2-貪心 82
8.3.6 遺憾 82
8.3.7 上置信界 82
8.4 蒙特卡羅樹(shù)搜索算法 83
8.5 樹(shù)的上置信界 85
8.6 蒙特卡羅樹(shù)搜索的特征 87
8.6.1 啟發(fā)式 87
8.6.2 隨時(shí)性 88
8.6.3 非對(duì)稱性 88
第9章 卷積神經(jīng)網(wǎng)絡(luò) 89
9.1 引言 89
9.2 有監(jiān)督學(xué)習(xí) 90
9.3 背景知識(shí) 91
9.3.1 張量和向量化 91
9.3.2 向量的計(jì)算以及鏈?zhǔn)椒▌t 91
9.3.3 克羅內(nèi)克積 92
9.4 CNN簡(jiǎn)述 92
9.4.1 結(jié)構(gòu) 92
9.4.2 前向傳播 93
9.4.3 隨機(jī)梯度下降 93
9.4.4 誤差反向傳播 93
9.5 卷積層 94
9.5.1 輸入,輸出,濾波,記號(hào) 94
9.5.2 卷積 95
9.5.3 卷積展開(kāi) 95
9.5.4 卷積展開(kāi)的推廣 96
9.5.5 更高維度的指標(biāo)矩陣 98
9.5.6 反向傳播的參數(shù) 99
9.5.7 反向傳播:監(jiān)督信號(hào) 100
9.6 池化層 101
9.7 逆向操作 102
9.8 ReLU層 103
第10章 深度卷積神經(jīng)網(wǎng)絡(luò) 104
10.1 Alex網(wǎng)絡(luò) 104
10.2 VGG網(wǎng)絡(luò) 106
10.3 Inception網(wǎng)絡(luò) 107
10.4 殘差網(wǎng)絡(luò) 111
10.4.1 殘差塊 112
10.4.2 殘差網(wǎng)絡(luò)的結(jié)構(gòu) 113
10.5 深度卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 114
10.5.1 權(quán)值初始化 114
10.5.2 學(xué)習(xí)率更新 115
10.5.3 批量正則化 115
10.5.4 增大數(shù)據(jù)集 116
10.5.5 圖形處理器與并行計(jì)算 117
10.6 全卷積神經(jīng)網(wǎng)絡(luò)與圖像的分割 117
10.6.1 全卷積神經(jīng)網(wǎng)絡(luò) 117
10.6.2 圖像分割 117
10.7 深度卷積神經(jīng)網(wǎng)絡(luò)在DNA序列分析中的應(yīng)用 120
第11章 循環(huán)神經(jīng)網(wǎng)絡(luò) 124
11.1 循環(huán)的含義 124
11.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的架構(gòu) 125
11.3 循環(huán)神經(jīng)網(wǎng)絡(luò)中梯度的計(jì)算 128
11.4 長(zhǎng)短期記憶網(wǎng)絡(luò) 130
11.5 門控循環(huán)單元 133
11.6 循環(huán)神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)與應(yīng)用案例 134
11.6.1 訓(xùn)練數(shù)據(jù)的獲取 134
11.6.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 135
11.6.3 報(bào)告對(duì)比 137
11.6.4 基于PyTorch的LSTM網(wǎng)絡(luò)訓(xùn)練 138
第12章 生成對(duì)抗網(wǎng)絡(luò) 140
12.1 引言 140
12.2 生成對(duì)抗網(wǎng)絡(luò)原理 141
12.2.1 損失函數(shù)和極大極小博弈 142
12.2.2 算法 142
12.2.3 最優(yōu)判別器 143
12.3 GAN的缺陷:梯度的消失 144
12.4 深度卷積生成對(duì)抗網(wǎng)絡(luò)的架構(gòu) 145
第13章 有完整模型的強(qiáng)化學(xué)習(xí) 148
13.1 強(qiáng)化學(xué)習(xí)導(dǎo)引 148
13.2 馬爾可夫獎(jiǎng)賞過(guò)程 150
13.2.1 馬爾可夫獎(jiǎng)賞過(guò)程表現(xiàn)形式 150
13.2.2 狀態(tài)值函數(shù)和貝爾曼方程 151
13.3 馬爾可夫決策過(guò)程 151
13.3.1 值函數(shù)與貝爾曼方程 153
13.3.2 最優(yōu)策略和最優(yōu)值函數(shù) 156
13.3.3 行動(dòng)值方法 159
13.4 動(dòng)態(tài)規(guī)劃 159
13.4.1 策略評(píng)價(jià) 160
13.4.2 策略改進(jìn) 161
13.4.3 策略迭代 162
13.4.4 值迭代 162
13.4.5 異步動(dòng)態(tài)規(guī)劃 163
13.4.6 廣義策略迭代 164
第14章 無(wú)完整模型的強(qiáng)化學(xué)習(xí) 166
14.1 蒙特卡羅方法 166
14.1.1 蒙特卡羅策略預(yù)測(cè) 167
14.1.2 行動(dòng)值的蒙特卡羅估計(jì) 169
14.1.3 蒙特卡羅控制 170
14.1.4 無(wú)探索起始的既定策略蒙特卡羅控制 172
14.1.5 通過(guò)重要性抽樣實(shí)現(xiàn)離策略預(yù)測(cè) 173
14.1.6 增量形式 175
14.1.7 離策略蒙特卡羅控制 176
14.1.8 蒙特卡羅方法與動(dòng)態(tài)規(guī)劃方法的比較 177
14.2 時(shí)間差分學(xué)習(xí) 178
14.2.1 時(shí)間差分預(yù)測(cè) 179
14.2.2 Sarsa:既定策略時(shí)間差分控制 181
14.2.3 Q-學(xué)習(xí):離策略時(shí)間差分控制 182
14.2.4 期望Sarsa 182
14.2.5 最大偏差和加倍學(xué)習(xí) 183
14.2.6 持續(xù)探索 185
第15章 深度Q網(wǎng)絡(luò) 186
15.1 深度Q網(wǎng)絡(luò)原理 187
15.2 深度Q網(wǎng)絡(luò)中的深度卷積神經(jīng)網(wǎng)絡(luò) 187
15.3 深度Q網(wǎng)絡(luò)算法 188
15.4 深度Q網(wǎng)絡(luò)訓(xùn)練 190
參考文獻(xiàn) 194
附錄A:AlexNet代碼 196
附錄B:Inception網(wǎng)絡(luò)代碼 198
附錄C:ResNet代碼 204
附錄D:深度卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練代碼 208