深度學(xué)習(xí)是當(dāng)前人工智能的引領(lǐng)技術(shù),是引發(fā)新一輪人工智能熱潮的原動力。本書從模型、算法、原理等角度全面介紹深度學(xué)習(xí)技術(shù),包括近兩年最新成果。全書由三大部分組成。第一部分是機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)基礎(chǔ),包括機(jī)器學(xué)習(xí)問題、淺層機(jī)器學(xué)習(xí)、早期神經(jīng)網(wǎng)絡(luò)等;第二部分是深度學(xué)習(xí)模型及算法,包括深度生成模型、卷積網(wǎng)絡(luò)、循環(huán)和遞歸網(wǎng)絡(luò)、表示學(xué)習(xí)等。第三部分是深度學(xué)習(xí)理論基礎(chǔ)和前沿課題,包括深度學(xué)習(xí)表達(dá)能力分析、深度學(xué)習(xí)泛化能力分析、深度學(xué)習(xí)可視化、深度學(xué)習(xí)的數(shù)學(xué)、物理、神經(jīng)科學(xué)基礎(chǔ)等。
更多科學(xué)出版社服務(wù),請掃碼獲取。
目錄
前言
9 深度置信網(wǎng)絡(luò)和深度玻爾茲曼機(jī) 1
9.1 深度置信網(wǎng)絡(luò)和深度玻爾茲曼機(jī)的起源 1
9.1.1 玻爾茲曼機(jī) 1
9.1.2 受限玻爾茲曼機(jī) 2
9.2 模型參數(shù)學(xué)習(xí) 7
9.2.1 吉布斯采樣 7
9.2.2 對比散列算法 7
9.3 深度置信網(wǎng)絡(luò) 9
9.3.1 深度置信網(wǎng)絡(luò)模型 9
9.3.2 深度置信網(wǎng)絡(luò)訓(xùn)練 10
9.4 深度玻爾茲曼機(jī) 11
9.4.1 深度玻爾茲曼機(jī)模型 11
9.4.2 深度玻爾茲曼機(jī)參數(shù)學(xué)習(xí) 13
9.5 深度置信網(wǎng)絡(luò)和深度玻爾茲曼機(jī)的應(yīng)用 15
9.5.1 深度置信網(wǎng)絡(luò)的應(yīng)用 15
9.5.2 深度玻爾茲曼機(jī)的應(yīng)用 17
9.6 閱讀材料 28
參考文獻(xiàn) 29
10 自編碼器 31
10.1 自編碼器介紹 31
10.1.1 自編碼器的結(jié)構(gòu) 31
10.1.2 自編碼器的訓(xùn)練 33
10.2 深度自編碼器 34
10.3 自編碼器的變形 36
10.3.1 稀疏自編碼器 36
10.3.2 降噪自編碼器 37
10.3.3 收縮自編碼器 38
10.3.4 掩碼自編碼器 39
10.3.5 其他自編碼器 42
10.4 變分自編碼器 42
10.4.1 變分推斷 42
10.4.2 詳解變分自編碼器 45
10.5 變分自編碼器的變形 50
10.5.1 半監(jiān)督變分自編碼器 50
10.5.2 反向自回歸流變分自編碼器 54
10.5.3 信息最大化變分自編碼器 56
10.5.4 最大均值差異變分自編碼器 58
10.5.5 向量量化變分自編碼器 59
10.5.6 降噪變分自編碼器 62
10.5.7 梯形變分自編碼器 64
10.6 變分自編碼器的應(yīng)用 68
10.6.1 機(jī)器翻譯 68
10.6.2 文本分類 72
10.7 閱讀材料 76
參考文獻(xiàn) 76
11 生成對抗網(wǎng)絡(luò) 79
11.1 原始生成對抗網(wǎng)絡(luò) 79
11.1.1 生成對抗網(wǎng)絡(luò)的基本結(jié)構(gòu) 79
11.1.2 深入理解生成對抗網(wǎng)絡(luò) 82
11.1.3 原始生成對抗網(wǎng)絡(luò)中的問題 95
11.2 生成對抗網(wǎng)絡(luò)的發(fā)展 96
11.2.1 深度卷積生成對抗網(wǎng)絡(luò) 96
11.2.2 基于Wasserstein距離的生成對抗網(wǎng)絡(luò) 97
11.2.3 加罰項的基于Wasserstein距離的生成對抗網(wǎng)絡(luò) 102
11.2.4 帶有一致化項的生成對抗網(wǎng)絡(luò) 104
11.2.5 損失敏感的生成對抗網(wǎng)絡(luò) 106
11.2.6 信息最大化生成對抗網(wǎng)絡(luò) 110
11.3 生成對抗網(wǎng)絡(luò)的訓(xùn)練 112
11.3.1 訓(xùn)練生成對抗網(wǎng)絡(luò)的問題與發(fā)展 113
11.3.2 訓(xùn)練生成對抗網(wǎng)絡(luò)的一些技巧 115
11.3.3 漸進(jìn)增大方式訓(xùn)練生成對抗網(wǎng)絡(luò) 116
11.3.4 生成對抗網(wǎng)絡(luò)的譜歸一化 118
11.3.5 通過原始-對偶次梯度方法訓(xùn)練生成對抗網(wǎng)絡(luò) 121
11.3.6 用優(yōu)化鏡像下降的方法訓(xùn)練生成對抗網(wǎng)絡(luò) 123
11.3.7 一階懲罰生成對抗網(wǎng)絡(luò) 125
11.4 深度生成模型的聯(lián)合模型 126
11.4.1 對抗變分貝葉斯方法 127
11.4.2 建立深度生成模型之間的原則性聯(lián)系 133
11.4.3 對抗自編碼器 140
11.4.4 Wasserstein自編碼器 144
11.5 最優(yōu)傳輸理論與生成對抗網(wǎng)絡(luò) 147
11.5.1 從最優(yōu)傳輸理論到生成模型 147
11.5.2 利用最優(yōu)傳輸理論改善生成對抗網(wǎng)絡(luò) 150
11.6 生成對抗網(wǎng)絡(luò)的評估 152
11.6.1 幾何評分:一種比較樣本的方法 153
11.6.2 調(diào)節(jié)生成器對生成對抗網(wǎng)絡(luò)性能的影響 156
11.7 生成對抗網(wǎng)絡(luò)的其他模型 157
11.8 生成對抗網(wǎng)絡(luò)的應(yīng)用 160
11.8.1 圖像的生成與操作 160
11.8.2 文本 172
11.9 早期的對抗模型 175
11.10 生成對抗網(wǎng)絡(luò)的總結(jié) 177
11.11 閱讀材料 179
參考文獻(xiàn) 180
12 像素級生成模型 184
12.1 PixelCNN 184
12.1.1 PixelCNN介紹 184
12.1.2 mask卷積 185
12.1.3 盲點問題 186
12.2 PixelRNN 188
12.2.1 行LSTM PixelRNN 188
12.2.2 對角線BiLSTM PixelRNN 189
12.3 門PixelCNN 192
12.4 條件PixelCNN 193
12.5 PixelVAE 194
12.6 PixelGAN 195
12.7 閱讀材料 197
參考文獻(xiàn) 197
13 深度聚類 198
13.1 聚類概述 198
13.1.1 傳統(tǒng)聚類與深度聚類之間的關(guān)系 198
13.1.2 深度聚類模型結(jié)構(gòu) 199
13.1.3 深度聚類損失函數(shù) 199
13.1.4 簇的更新策略 201
13.2 深度嵌入聚類算法 202
13.2.1 自編碼器與聚類結(jié)合 202
13.2.2 變分自編碼器與聚類的結(jié)合 207
13.2.3 梯子網(wǎng)絡(luò)與聚類的結(jié)合 210
13.2.4 卷積神經(jīng)網(wǎng)絡(luò)與聚類的結(jié)合 213
13.3 深度譜聚類 217
13.4 深度子空間聚類 220
13.5 閱讀材料 224
參考文獻(xiàn) 225
14 深度強(qiáng)化學(xué)習(xí) 230
14.1 基于值函數(shù)的深度強(qiáng)化學(xué)習(xí) 230
14.1.1 深度Q網(wǎng)絡(luò) 231
14.1.2 雙重深度Q網(wǎng)絡(luò) 238
14.1.3 優(yōu)先化經(jīng)驗回放的深度Q網(wǎng)絡(luò) 241
14.1.4 基于競爭網(wǎng)絡(luò)架構(gòu)的深度Q網(wǎng)絡(luò) 243
14.2 基于策略搜索的深度強(qiáng)化學(xué)習(xí) 246
14.2.1 深度確定性策略梯度算法 246
14.2.2 異步的優(yōu)勢行動者-評論家算法 250
14.3 基于模型的深度強(qiáng)化學(xué)習(xí) 252
14.3.1 AlphaGo發(fā)展史 253
14.3.2 AlphaGo原理介紹 255
14.4 深度強(qiáng)化學(xué)習(xí)的應(yīng)用 264
14.5 深度強(qiáng)化學(xué)習(xí)的未來 266
14.6 閱讀材料 269
參考文獻(xiàn) 269
15 深度學(xué)習(xí)的可解釋性 272
15.1 可解釋性概述 272
15.1.1 什么是可解釋性 273
15.1.2 可解釋的必要性 273
15.1.3 可解釋性研究進(jìn)展 274
15.2 可視化 277
15.2.1 可視化方法分類 277
15.2.2 特征可視化 278
15.2.3 關(guān)系可視化 289
15.2.4 過程可視化 297
15.3 深度學(xué)習(xí)內(nèi)部工作機(jī)制探查 300
15.3.1 局部可解釋模型 300
15.3.2 關(guān)系反向傳播 304
15.3.3 決策樹量化解釋 311
15.3.4 信息論的角度解釋模型 317
15.4 深度學(xué)習(xí)工作機(jī)制理論分析 321
15.4.1 基于統(tǒng)計的分析 321
15.4.2 基于信息論的分析 327
15.4.3 基于認(rèn)知科學(xué)的分析 342
15.5 閱讀材料 347
參考文獻(xiàn) 348
16 對抗樣本攻防和深度學(xué)習(xí)的魯棒性 355
16.1 深度神經(jīng)網(wǎng)絡(luò)的脆弱性 355
16.2 對抗樣本攻擊 357
16.2.1 攻擊策略 357
16.2.2 對抗樣本的產(chǎn)生 373
16.2.3 對抗樣本的遷移 380
16.3 對抗攻擊的檢測與防御 383
16.3.1 對抗樣本的檢測 383
16.3.2 對抗攻擊的防御 385
16.4 深度神經(jīng)網(wǎng)絡(luò)的魯棒性 391
16.4.1 分類器的魯棒性 391
16.4.2 Parseval網(wǎng)絡(luò) 399
16.4.3 評估神經(jīng)網(wǎng)絡(luò)的魯棒性 400
16.4.4 為深度神經(jīng)網(wǎng)絡(luò)提供可保證的魯棒性 403
16.5 深度學(xué)習(xí)測試 405
16.5.1 白盒測試 405
16.5.2 黑盒測試 414
16.6 深度學(xué)習(xí)驗證 422
16.6.1 可滿足性模理論 423
16.6.2 線性實數(shù)算法和單純形 424
16.6.3 從Simplex到Reluplex 425
16.6.4 有效實施Reluplex 428
16.6.5 案例研究:ACASXu系統(tǒng) 429
16.7 閱讀材料 431
參考文獻(xiàn) 432