TensorFlow機(jī)器學(xué)習(xí)(原書第2版)
定 價(jià):129 元
叢書名:智能系統(tǒng)與技術(shù)叢書
- 作者:[美]克里斯·馬特曼(Chris Mattmann) 著
- 出版時(shí)間:2022/7/1
- ISBN:9787111705772
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類:TP181
- 頁(yè)碼:364
- 紙張:
- 版次:
- 開(kāi)本:16
本書是升級(jí)版,不僅包含機(jī)器學(xué)習(xí)的基本概念,以及如何利用TensorFlow庫(kù)快速構(gòu)建強(qiáng)大的機(jī)器學(xué)習(xí)模型,還涵蓋了前沿的神經(jīng)網(wǎng)絡(luò)技術(shù),如深度語(yǔ)音分類器、面部識(shí)別和CIFAR-10自動(dòng)編碼。另外,本書新增了如何將代碼更新到TensorFlow 2.0,以及在Docker容器中運(yùn)行代碼所需要的技術(shù)。
譯者序
序
前言
關(guān)于本書
致謝
第一部分 機(jī)器學(xué)習(xí)基礎(chǔ)
第1章 開(kāi)啟機(jī)器學(xué)習(xí)之旅2
1.1 機(jī)器學(xué)習(xí)的基本原理3
1.1.1 參數(shù)5
1.1.2 學(xué)習(xí)和推理6
1.2 數(shù)據(jù)表示和特征7
1.3 度量距離13
1.4 機(jī)器學(xué)習(xí)的類型15
1.4.1 監(jiān)督學(xué)習(xí)15
1.4.2 無(wú)監(jiān)督學(xué)習(xí)16
1.4.3 強(qiáng)化學(xué)習(xí)17
1.4.4 元學(xué)習(xí)17
1.5 TensorFlow19
1.6 后續(xù)各章概述21
小結(jié)22
第2章 TensorFlow必備知識(shí)23
2.1 確保TensorFlow工作正常24
2.2 表示張量25
2.3 創(chuàng)建運(yùn)算29
2.4 在會(huì)話中執(zhí)行運(yùn)算30
2.5 將代碼理解為圖32
2.6 在Jupyter中編寫代碼34
2.7 使用變量37
2.8 保存和加載變量38
2.9 使用TensorBoard可視化數(shù)據(jù)40
2.9.1 實(shí)現(xiàn)移動(dòng)平均40
2.9.2 可視化移動(dòng)平均42
2.10 把所有綜合到一起:TensorFlow系統(tǒng)架構(gòu)和API44
小結(jié)45
第二部分 核心學(xué)習(xí)算法
第3章 線性回歸及其他48
3.1 形式化表示48
3.2 線性回歸52
3.3 多項(xiàng)式模型55
3.4 正則化58
3.5 線性回歸的應(yīng)用62
小結(jié)63
第4章 使用回歸進(jìn)行呼叫量預(yù)測(cè)64
4.1 什么是31166
4.2 為回歸清洗數(shù)據(jù)67
4.3 什么是鐘形曲線?預(yù)測(cè)高斯分布71
4.4 訓(xùn)練呼叫回歸預(yù)測(cè)器72
4.5 可視化結(jié)果并繪制誤差74
4.6 正則化和訓(xùn)練測(cè)試集拆分76
小結(jié)78
第5章 分類問(wèn)題基礎(chǔ)介紹79
5.1 形式化表示80
5.2 衡量性能82
5.2.1 準(zhǔn)確率82
5.2.2 精度和召回率82
5.2.3 受試者操作特征曲線84
5.3 使用線性回歸進(jìn)行分類85
5.4 使用邏輯回歸89
5.4.1 解決1維邏輯回歸90
5.4.2 解決2維邏輯回歸93
5.5 多分類器96
5.5.1 一對(duì)所有96
5.5.2 一對(duì)一97
5.5.3 softmax回歸97
5.6 分類的應(yīng)用101
小結(jié)101
第6章 情感分類:大型影評(píng)數(shù)據(jù)集103
6.1 使用詞袋模型104
6.1.1 在影評(píng)中應(yīng)用詞袋模型105
6.1.2 清洗所有的電影評(píng)論107
6.1.3 在詞袋模型上進(jìn)行探索性數(shù)據(jù)分析108
6.2 使用邏輯回歸構(gòu)建情感分類器109
6.2.1 模型訓(xùn)練的創(chuàng)建110
6.2.2 訓(xùn)練創(chuàng)建的模型111
6.3 使用情感分類器進(jìn)行預(yù)測(cè)112
6.4 測(cè)量分類器的有效性115
6.5 創(chuàng)建softmax回歸情感分類器119
6.6 向Kaggle提交結(jié)果125
小結(jié)127
第7章 自動(dòng)聚類數(shù)據(jù)128
7.1 使用TensorFlow遍歷文件129
7.2 音頻特征提取130
7.3 使用k-means聚類135
7.4 分割音頻138
7.5 使用自組織映射進(jìn)行聚類140
7.6 應(yīng)用聚類144
小結(jié)145
第8章 從Android的加速度計(jì)數(shù)據(jù)推斷用戶活動(dòng)146
8.1 Walking數(shù)據(jù)集中的用戶活動(dòng)數(shù)據(jù)147
8.1.1 創(chuàng)建數(shù)據(jù)集149
8.1.2 計(jì)算急動(dòng)度并提取特征向量150
8.2 基于急動(dòng)度大小聚類相似參與者153
8.3 單個(gè)參與者的不同類別活動(dòng)155
小結(jié)157
第9章 隱馬爾可夫模型158
9.1 一個(gè)不可解釋模型的例子159
9.2 馬爾可夫模型159
9.3 隱馬爾可夫模型簡(jiǎn)介161
9.4 前向算法162
9.5 維特比解碼165
9.6 使用HMM166
9.6.1 對(duì)視頻建模166
9.6.2 對(duì)DNA建模166
9.6.3 對(duì)圖像建模167
9.7 HMM的應(yīng)用167
小結(jié)167
第10章 詞性標(biāo)注和詞義消歧168
10.1 HMM示例回顧:雨天或晴天170
10.2 詞性標(biāo)注173
10.2.1 重點(diǎn):使用HMM訓(xùn)練和預(yù)測(cè)詞性176
10.2.2 生成帶歧義的詞性標(biāo)注數(shù)據(jù)集179
10.3 構(gòu)建基于HMM的詞性消歧算法181
10.4 運(yùn)行HMM并評(píng)估其輸出188
10.5 從布朗語(yǔ)料庫(kù)獲得更多的訓(xùn)練數(shù)據(jù)190
10.6 為詞性標(biāo)注定義評(píng)估指標(biāo)196
小結(jié)198
第三部分 神經(jīng)網(wǎng)絡(luò)范式
第11章 自編碼器200
11.1 神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介201
11.2 自編碼器簡(jiǎn)介203
11.3 批量訓(xùn)練207
11.4 處理圖像207
11.5 自編碼器的應(yīng)用211
小結(jié)212
第12章 應(yīng)用自編碼器:CIFAR-10圖像數(shù)據(jù)集213
12.1 什么是CIFAR-10214
12.2 自編碼器作為分類器218
12.3 去噪自編碼器223
12.4 堆棧自編碼器226
小結(jié)229
第13章 強(qiáng)化學(xué)習(xí)230
13.1 相關(guān)概念231
13.1.1 策略232
13.1.2 效用233
13.2 應(yīng)用強(qiáng)化學(xué)習(xí)233
13.3 實(shí)現(xiàn)強(qiáng)化學(xué)習(xí)235
13.4 探索強(qiáng)化學(xué)習(xí)的其他應(yīng)用242
小結(jié)243
第14章 卷積神經(jīng)網(wǎng)絡(luò)244
14.1 神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)245
14.2 卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介245
14.3 準(zhǔn)備圖像246
14.3.1 生成過(guò)濾器249
14.3.2 使用過(guò)濾器進(jìn)行卷積251
14.3.3 最大池化253
14.4 在TensorFlow中實(shí)現(xiàn)CNN254
14.4.1 測(cè)量性能257
14.4.2 訓(xùn)練分類器258
14.5 提高性能的提示和技巧258
14.6 CNN的應(yīng)用259
小結(jié)259
第15章 構(gòu)建現(xiàn)實(shí)世界中的CNN:VGG-Face和VGG-Face Lite260
15.1 為CIFAR-10構(gòu)建一個(gè)現(xiàn)實(shí)世界的CNN架構(gòu)262
15.1.1 加載和準(zhǔn)備CIFAR-10圖像數(shù)據(jù)263
15.1.2 執(zhí)行數(shù)據(jù)增強(qiáng)265
15.2 為CIFAR-10構(gòu)建深層CNN架構(gòu)267
15.3 訓(xùn)練和應(yīng)用一個(gè)更好的CIFAR-10 CNN271
15.4 在CIFAR-10測(cè)試和評(píng)估CNN273
15.4.1 CIFAR-10準(zhǔn)確率結(jié)果和ROC曲線276
15.4.2 評(píng)估softmax對(duì)每個(gè)類的預(yù)測(cè)277
15.5 構(gòu)建用于人臉識(shí)別的VGG-Face280
15.5.1 選擇一個(gè)VGG-Face的子集來(lái)訓(xùn)練VGG-Face Lite282
15.5.2 TensorFlow的Dataset API和數(shù)據(jù)增強(qiáng)282
15.5.3 創(chuàng)建TensorFlow數(shù)據(jù)集285
15.5.4 使用TensorFlow數(shù)據(jù)集訓(xùn)練287
15.5.5 VGG-Face Lite模型和訓(xùn)練288
15.5.6 訓(xùn)練和評(píng)估VGG-Face Lite290
15.5.7 使用VGG-Face Lite進(jìn)行評(píng)估和預(yù)測(cè)292
小結(jié)295
第16章 循環(huán)神經(jīng)網(wǎng)絡(luò)296
16.1 RNN介紹297
16.2 實(shí)現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)298
16.3 使用時(shí)間序列數(shù)據(jù)的預(yù)測(cè)模型300
16.4 應(yīng)用RNN303
小結(jié)303
第17章 LSTM和自動(dòng)語(yǔ)音識(shí)別304
17.1 準(zhǔn)備LibriSpeech語(yǔ)料庫(kù)305
17.1.1 下載、清洗和準(zhǔn)備LibriSpeech OpenSLR數(shù)據(jù)305
17.1.2 轉(zhuǎn)換音頻307
17.1.3 生成每個(gè)音頻的轉(zhuǎn)錄308
17.1.4 聚合音頻和轉(zhuǎn)錄309
17.2 使用深度語(yǔ)音模型310
17.2.1 為深度語(yǔ)音模型準(zhǔn)備輸入音頻數(shù)據(jù)311
17.2.2 準(zhǔn)備文本轉(zhuǎn)錄為字符級(jí)數(shù)值數(shù)據(jù)315
17.2.3 TensorFlow中的深度語(yǔ)音模型316
17.2.4 TensorFlow中的連接主義時(shí)間分類319
17.3 訓(xùn)練和評(píng)估深度語(yǔ)音模型321
小結(jié)323
第18章 用于聊天機(jī)器人的seq2seq模型325
18.1 基于分類和RNN326
18.2 理解seq2seq架構(gòu)327
18.3 符號(hào)的向量表示331
18.4 把它們綜合到一起333
18.5 收集對(duì)話數(shù)據(jù)340
小結(jié)341
第19章 效用342
19.1 偏好模型344
19.2 圖像嵌入347
19.3 圖像排序350
小結(jié)355
接下來(lái)355
附錄 安裝說(shuō)明356