TensorFlow深度學(xué)習(xí)從入門到進階
定 價:109 元
- 作者:張德豐
- 出版時間:2020/5/1
- ISBN:9787111652632
- 出 版 社:機械工業(yè)出版社
- 中圖法分類:TP18
- 頁碼:384
- 紙張:
- 版次:
- 開本:16開
《TensorFlow深度學(xué)習(xí)從入門到進階》以TensorFlow為主線進行講解,書中每章節(jié)都以理論引出,以TensorFlow應(yīng)用鞏固結(jié)束,理論與實踐相結(jié)合,讓讀者快速掌握TensorFlow機器學(xué)習(xí)!禩ensorFlow深度學(xué)習(xí)從入門到進階》共11章,主要包括TensorFlow與深度網(wǎng)絡(luò)、TensorFlow編程基礎(chǔ)、TensorFlow編程進階、線性回歸、邏輯回歸、聚類分析、神經(jīng)網(wǎng)絡(luò)算法、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、其他網(wǎng)絡(luò)、機器學(xué)習(xí)綜合實戰(zhàn)等內(nèi)容。
《TensorFlow深度學(xué)習(xí)從入門到進階》適合TensorFlow初學(xué)者閱讀,也適合研究TensorFlow的廣大科研人員、學(xué)者、工程技術(shù)人員學(xué)習(xí)參考。
前言
第1章 TensorFlow與深度學(xué)習(xí)
1.1 深度學(xué)習(xí)的由來
1.2 語言與系統(tǒng)的支持
1.3 TensorFlow的特點
1.4 核心組件
1.5 TensorFlow的主要依賴包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建環(huán)境
1.6.1 安裝環(huán)境
1.6.2 安裝TensorFlow
1.6.3 安裝測試
1.7 Geany
1.8 揭開深度學(xué)習(xí)的面紗
1.8.1 人工智能、機器學(xué)習(xí)與深度學(xué)習(xí)
1.8.2 深度學(xué)習(xí)的核心思想
1.8.3 深度學(xué)習(xí)的應(yīng)用
1.9 深度學(xué)習(xí)的優(yōu)劣勢
第2章 TensorFlow編程基礎(chǔ)
2.1 張量
2.1.1 張量的概念
2.1.2 張量的使用
2.1.3 Numpy庫
2.1.4 張量的階
2.1.5 張量的形狀
2.1.6 張量應(yīng)用實例
2.2 圖的實現(xiàn)
2.3 會話的實現(xiàn)
2.4 認(rèn)識變量
2.4.1 變量的創(chuàng)建
2.4.2 變量的初始化
2.4.3 變量的更新
2.4.4 變量的保存
2.4.5 變量的加載
2.4.6 共享變量和變量命名空間
2.5 矩陣的操作
2.5.1 矩陣的生成
2.5.2 矩陣的變換
2.6 TensorFlow數(shù)據(jù)讀取的方式
2.7 從磁盤讀取信息
2.7.1 列表格式
2.7.2 讀取圖像數(shù)據(jù)
第3章 TensorFlow編程進階
3.1 隊列與線程
3.1.1 隊列
3.1.2 隊列管理器
3.1.3 線程協(xié)調(diào)器
3.1.4 組合使用
3.2 TensorFlow嵌入Layer
3.3 生成隨機圖片數(shù)據(jù)
3.4 神經(jīng)網(wǎng)絡(luò)
3.4.1 神經(jīng)元
3.4.2 簡單神經(jīng)結(jié)構(gòu)
3.4.3 深度神經(jīng)網(wǎng)絡(luò)
3.5 損失函數(shù)
3.6 梯度下降
3.6.1 標(biāo)準(zhǔn)梯度法
3.6.2 批量梯度下降法
3.6.3 隨機梯度下降法
3.6.4 小批量梯度下降法
3.6.5 線性模型的局限性
3.6.6 直線與曲線的擬合演示
3.7 反向傳播
3.7.1 求導(dǎo)鏈?zhǔn)椒▌t
3.7.2 反向傳播算法思路
3.7.3 反向傳播算法的計算過程
3.7.4 反向傳播演示回歸與二分類算法
3.8 隨機訓(xùn)練與批量訓(xùn)練
3.9 創(chuàng)建分類器
3.10 模型評估
3.11 優(yōu)化函數(shù)
3.11.1 隨機梯度下降優(yōu)化算法
3.11.2 基于動量的優(yōu)化算法
3.11.3 Adagrad優(yōu)化算法
3.11.4 Adadelta優(yōu)化算法
3.11.5 Adam優(yōu)化算法
3.11.6 實例演示幾種優(yōu)化算法
第4章 TensorFlow實現(xiàn)線性回歸
4.1 矩陣操作實現(xiàn)線性回歸問題
4.1.1 逆矩陣解決線性回歸問題
4.1.2 矩陣分解法實現(xiàn)線性回歸
4.1.3 正則法對iris數(shù)據(jù)實現(xiàn)回歸分析
4.2 損失函數(shù)對iris數(shù)據(jù)實現(xiàn)回歸分析
4.3 戴明算法對iris數(shù)據(jù)實現(xiàn)回歸分析
4.4 嶺回歸與Lasso回歸對iris數(shù)據(jù)實現(xiàn)回歸分析
4.5 彈性網(wǎng)絡(luò)算法對iris數(shù)據(jù)實現(xiàn)回歸分析
第5章 TensorFlow實現(xiàn)邏輯回歸
5.1 什么是邏輯回歸
5.1.1 邏輯回歸與線性回歸的關(guān)系
5.1.2 邏輯回歸模型的代價函數(shù)
5.1.3 邏輯回歸的預(yù)測函數(shù)
5.1.4 判定邊界
5.1.5 隨機梯度下降算法實現(xiàn)邏輯回歸
5.2 逆函數(shù)及其實現(xiàn)
5.2.1 逆函數(shù)的相關(guān)函數(shù)
5.2.2 逆函數(shù)的實現(xiàn)
5.3 Softmax回歸
5.3.1 Softmax回歸簡介
5.3.2 Softmax的代價函數(shù)
5.3.3 Softmax回歸的求解
5.3.4 Softmax回歸的參數(shù)特點
5.3.5 Softmax與邏輯回歸的關(guān)系
5.3.6 多分類算法和二分類算法的選擇
5.3.7 計算機視覺領(lǐng)域?qū)嵗?br>
第6章 TensorFlow實現(xiàn)聚類分析
6.1 支持向量機及實現(xiàn)
6.1.1 重新審視邏輯回歸
6.1.2 形式化表示
6.1.3 函數(shù)間隔和幾何間隔
6.1.4 最優(yōu)間隔分類器
6.1.5 支持向量機對iris數(shù)據(jù)進行分類
6.1.6 核函數(shù)對數(shù)據(jù)點進行預(yù)測
6.1.7 非線性支持向量機創(chuàng)建山鳶尾花分類器
6.1.8 多類支持向量機對iris數(shù)據(jù)進行預(yù)測
6.2 K-均值聚類法及實現(xiàn)
6.2.1 K-均值聚類相關(guān)概念
6.2.2 K-均值聚類法對iris數(shù)據(jù)進行聚類
6.3 最近鄰算法及實現(xiàn)
6.3.1 最近鄰算法概述
6.3.2 最近鄰算法求解文本距離
6.3.3 最近鄰算法實現(xiàn)地址匹配
第7章 神經(jīng)網(wǎng)絡(luò)算法
7.1 反向網(wǎng)絡(luò)
7.1.1 問題設(shè)置
7.1.2 反向網(wǎng)絡(luò)算法
7.1.3 自動微分
7.1.4 對隨機數(shù)進行反向網(wǎng)絡(luò)演示
7.2 激勵函數(shù)及實現(xiàn)
7.2.1 激勵函數(shù)的用途
7.2.2 幾種激勵函數(shù)
7.2.3 幾種激勵函數(shù)的繪圖
7.3 門函數(shù)及其實現(xiàn)
7.4 單層神經(jīng)網(wǎng)絡(luò)對iris數(shù)據(jù)進行訓(xùn)練
7.5 單個神經(jīng)元的擴展及實現(xiàn)
7.6 構(gòu)建多層神經(jīng)網(wǎng)絡(luò)
7.7 實現(xiàn)井字棋
第8章 TensorFlow實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)
8.1 全連接網(wǎng)絡(luò)的局限性
8.2 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
8.2.1 卷積層
8.2.2 池化層
8.2.3 全連接層
8.3 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
8.3.1 求導(dǎo)的鏈?zhǔn)椒▌t
8.3.2 卷積層反向傳播
8.4 卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)
8.4.1 識別0和1數(shù)字
8.4.2 預(yù)測MNIST數(shù)字
8.5 幾種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)及實現(xiàn)
8.5.1 AlexNet網(wǎng)絡(luò)及實現(xiàn)
8.5.2 VGGNet網(wǎng)絡(luò)及實現(xiàn)
8.5.3 Inception Net網(wǎng)絡(luò)及實現(xiàn)
8.5.4 RestNet網(wǎng)絡(luò)及實現(xiàn)
第9章 TensorFlow實現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)
9.1 循環(huán)神經(jīng)網(wǎng)絡(luò)概述
9.1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的原理
9.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用
9.1.3 損失函數(shù)
9.1.4 梯度求解
9.1.5 實現(xiàn)二進制數(shù)加法運算
9.1.6 實現(xiàn)擬合回聲信號序列
9.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
9.3 循環(huán)神經(jīng)網(wǎng)絡(luò)的改進
9.3.1 循環(huán)神經(jīng)網(wǎng)絡(luò)存在的問題
9.3.2 LSTM網(wǎng)絡(luò)
9.3.3 LSTM核心思想
9.3.4 LSTM詳解與實現(xiàn)
9.3.5 窺視孔連接
9.3.6 GRU網(wǎng)絡(luò)對MNIST數(shù)據(jù)集分類
9.3.7 BRNN網(wǎng)絡(luò)對MNIST數(shù)據(jù)集分類
9.3.8 CTC實現(xiàn)端到端訓(xùn)練的語音識別模型
第10章 TensorFlow其他網(wǎng)絡(luò)
10.1 自編碼網(wǎng)絡(luò)及實現(xiàn)
10.1.1 自編碼網(wǎng)絡(luò)的結(jié)構(gòu)
10.1.2 自編碼網(wǎng)絡(luò)的代碼實現(xiàn)
10.2 降噪自編碼器及實現(xiàn)
10.2.1 降噪自編碼器的原理
10.2.2 降噪自編碼器的實現(xiàn)
10.3 棧式自編碼器及實現(xiàn)
10.3.1 棧式自編碼器概述
10.3.2 棧式自編碼器訓(xùn)練
10.3.3 棧式自編碼器進行MNIST手寫數(shù)字分類
10.3.4 代替和級聯(lián)
10.3.5 自編碼器的應(yīng)用場合
10.3.6 自編碼器的綜合實現(xiàn)
10.4 變分自編碼器及實現(xiàn)
10.4.1 變分自編碼器的原理
10.4.2 損失函數(shù)
10.4.3 變分自編碼器模擬生成MNIST數(shù)據(jù)
10.5 條件變分自編碼器及實現(xiàn)
10.5.1 條件變分自編碼器概述
10.5.2 條件變分自編碼器生成MNIST數(shù)據(jù)
10.6 對抗神經(jīng)網(wǎng)絡(luò)
10.6.1 對抗神經(jīng)網(wǎng)絡(luò)的原理
10.6.2 生成模型的應(yīng)用
10.6.3 對抗神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法
10.7 DCGAN網(wǎng)絡(luò)及實現(xiàn)
10.7.1 DCGAN網(wǎng)絡(luò)概述
10.7.2 DCGAN網(wǎng)絡(luò)模擬MNIST數(shù)據(jù)
10.8 InfoGAN網(wǎng)絡(luò)及實現(xiàn)
10.8.1 什么是互信息
10.8.2 互信息的下界
10.8.3 InfoGAN生成MNIST模擬數(shù)據(jù)
10.9 AEGAN網(wǎng)絡(luò)及實現(xiàn)
10.9.1 AEGAN網(wǎng)絡(luò)概述
10.9.2 AEGAN對MNIST數(shù)據(jù)集壓縮及重建
10.10 WGAN-GP網(wǎng)絡(luò)
10.10.1 WGAN網(wǎng)絡(luò)
10.10.2 WGAN-GP網(wǎng)絡(luò)生成MNIST數(shù)據(jù)集
第11章 TensorFlow機器學(xué)習(xí)綜合實戰(zhàn)
11.1 房屋價格的預(yù)測
11.1.1 K近鄰算法預(yù)測房屋價格
11.1.2 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測房屋價格
11.1.3 深度神經(jīng)網(wǎng)絡(luò)預(yù)測房屋價格
11.2 卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)人臉識別
11.3 腎癌的轉(zhuǎn)移判斷
11.4 比特幣的預(yù)測
參考文獻