深度學(xué)習(xí)的數(shù)學(xué)——使用Python語(yǔ)言
定 價(jià):89.8 元
- 作者:[美]羅納德·T.紐塞爾(Ronald T. Kneusel)
- 出版時(shí)間:2024/2/1
- ISBN:9787115607775
- 出 版 社:人民郵電出版社
- 中圖法分類:TP181
- 頁(yè)碼:
- 紙張:膠版紙
- 版次:
- 開本:128開
深度學(xué)習(xí)是一門注重應(yīng)用的學(xué)科。了解深度學(xué)習(xí)背后的數(shù)學(xué)原理的人,可以在應(yīng)用深度學(xué)習(xí)解決實(shí)際問題時(shí)游刃有余。本書通過(guò)Python代碼示例來(lái)講解深度學(xué)習(xí)背后的關(guān)鍵數(shù)學(xué)知識(shí),包括概率論、統(tǒng)計(jì)學(xué)、線性代數(shù)、微分等,并進(jìn)一步解釋神經(jīng)網(wǎng)絡(luò)、反向傳播、梯度下降等深度學(xué)習(xí)領(lǐng)域關(guān)鍵知識(shí)背后的原理。
本書適合有一定深度學(xué)習(xí)基礎(chǔ)、了解Pyho如編程語(yǔ)言的讀者閱讀,也可作為拓展深度學(xué)習(xí)理論的參考書。
1.做中學(xué),從代碼來(lái)理解深度學(xué)習(xí)的數(shù)學(xué)
從本質(zhì)上講,這是一本數(shù)學(xué)書。但是,本書將使用代碼來(lái)說(shuō)明概念,而不是證明和練習(xí)。深度學(xué)習(xí)是一門應(yīng)用學(xué)科,作者認(rèn)為做中學(xué),你才能理解它。因此,本書將使用代碼來(lái)彌合純數(shù)學(xué)知識(shí)和動(dòng)手實(shí)踐之間的差距。
2.循序漸進(jìn),從基礎(chǔ)到進(jìn)階,從入門到精通
本書各章內(nèi)容相輔相成,基礎(chǔ)章節(jié)后面緊跟進(jìn)階的數(shù)學(xué)主題,最后講解深度學(xué)習(xí)算法,涉及前面章節(jié)中涵蓋的所有內(nèi)容。一般而言,讀者可以從前向后通讀本書,對(duì)于熟悉的主題,則可以跳過(guò)。
羅納德·T.紐塞爾(Ronald T. Kneusel),擁有超過(guò) 20年的機(jī)器學(xué)習(xí)行業(yè)經(jīng)驗(yàn),著有多本AI領(lǐng)域圖書。 本書適合有一定深度學(xué)習(xí)基礎(chǔ)、了解Python編程語(yǔ)言的讀者閱讀,也可作為用于拓展深度學(xué)習(xí)理論的參考書。
第 1 章 搭建舞臺(tái) 1
1.1 組件安裝 2
1.1.1 Linux 2
1.1.2 macOS 3
1.1.3 Windows 3
1.2 NumPy 4
1.2.1 定義數(shù)組 4
1.2.2 數(shù)據(jù)類型 4
1.2.3 二維數(shù)組 5
1.2.4 全 0 數(shù)組和全 1 數(shù)組 6
1.2.5 高級(jí)索引 6
1.2.6 讀寫磁盤 8
1.3 SciPy 8
1.4 matplotlib 9
1.5 scikit-learn 11
1.6 小結(jié) 12
第 2 章 概率論 13
2.1 基礎(chǔ)概念 13
2.1.1 樣本空間和事件 14
2.1.2 隨機(jī)變量 14
2.1.3 人類不擅于處理概率問題 15
2.2 概率法則 16
2.2.1 事件的概率 16
2.2.2 加法法則 18
2.2.3 乘法法則 19
2.2.4 加法法則的修正版 20
2.2.5 生日難題 20
2.2.6 條件概率 23
2.2.7 全概率公式 24
2.3 聯(lián)合概率和邊緣概率 25
2.3.1 聯(lián)合概率表 25
2.3.2 概率的鏈?zhǔn)椒▌t 29
2.4 小結(jié) 30
第 3 章 概率論進(jìn)階 31
3.1 概率分布 31
3.1.1 直方圖與概率 32
3.1.2 離散型概率分布 34
3.1.3 連續(xù)型概率分布 39
3.1.4 中心極限定理 42
3.1.5 大數(shù)法則 45
3.2 貝葉斯定理 45
3.2.1 回到判斷女性是否患有乳腺癌的例子 46
3.2.2 更新先驗(yàn) 47
3.2.3 機(jī)器學(xué)習(xí)中的貝葉斯定理 48
3.3 小結(jié) 50
第 4 章 統(tǒng)計(jì)學(xué) 51
4.1 數(shù)據(jù)類型 51
4.1.1 定類數(shù)據(jù) 52
4.1.2 定序數(shù)據(jù) 52
4.1.3 定距數(shù)據(jù) 52
4.1.4 定比數(shù)據(jù) 52
4.1.5 在深度學(xué)習(xí)中使用定類數(shù)據(jù) 53
4.2 描述性統(tǒng)計(jì)量 54
4.2.1 均值和中位數(shù) 54
4.2.2 用于衡量變化的統(tǒng)計(jì)量 57
4.3 分位數(shù)和箱形圖 60
4.4 缺失數(shù)據(jù) 64
4.5 相關(guān)性 66
4.5.1 皮爾森相關(guān)性 67
4.5.2 斯皮爾曼相關(guān)性 70
4.6 假設(shè)檢驗(yàn) 71
4.6.1 假設(shè) 72
4.6.2 t 檢驗(yàn) 73
4.6.3 曼-惠特尼 U 檢驗(yàn) 77
4.7 小結(jié) 79
第 5 章 線性代數(shù) 80
5.1 標(biāo)量、向量、矩陣和張量 80
5.1.1 標(biāo)量 81
5.1.2 向量 81
5.1.3 矩陣 82
5.1.4 張量 82
5.2 用張量進(jìn)行代數(shù)運(yùn)算 84
5.2.1 數(shù)組運(yùn)算 85
5.2.2 向量運(yùn)算 86
5.2.3 矩陣乘法 93
5.2.4 克羅內(nèi)克積 97
5.3 小結(jié) 98
第 6 章 線性代數(shù)進(jìn)階 99
6.1 方陣 99
6.1.1 為什么需要方陣 100
6.1.2 轉(zhuǎn)置、跡和冪 101
6.1.3 特殊方陣 103
6.1.4 三角矩陣 104
6.1.5 行列式 104
6.1.6 逆運(yùn)算 107
6.1.7 對(duì)稱矩陣、正交矩陣和酉矩陣 108
6.1.8 對(duì)稱矩陣的正定性 109
6.2 特征向量和特征值 110
6.3 向量范數(shù)和距離度量 113
6.3.1 L 范數(shù)和距離度量 113
6.3.2 協(xié)方差矩陣 114
6.3.3 馬氏距離 116
6.3.4 K-L 散度 118
6.4 主成分分析 120
6.5 奇異值分解和偽逆 122
6.5.1 SVD 實(shí)戰(zhàn) 123
6.5.2 SVD 的兩個(gè)應(yīng)用 124
6.6 小結(jié) 126
第 7 章 微分 127
7.1 斜率 127
7.2 導(dǎo)數(shù) 129
7.2.1 導(dǎo)數(shù)的正式定義 129
7.2.2 基本法則 130
7.2.3 三角函數(shù)的求導(dǎo)法則 133
7.2.4 指數(shù)函數(shù)和自然對(duì)數(shù)的求導(dǎo)法則 135
7.3 函數(shù)的極小值和極大值 137
7.4 偏導(dǎo)數(shù) 140
7.4.1 混合偏導(dǎo)數(shù) 142
7.4.2 偏導(dǎo)數(shù)的鏈?zhǔn)椒▌t 142
7.5 梯度 143
7.5.1 梯度的計(jì)算 144
7.5.2 可視化梯度 146
7.6 小結(jié) 148
第 8 章 矩陣微分 149
8.1 一些公式 149
8.1.1 關(guān)于標(biāo)量的向量函數(shù) 150
8.1.2 關(guān)于向量的標(biāo)量函數(shù) 151
8.1.3 關(guān)于向量的向量函數(shù) 152
8.1.4 關(guān)于標(biāo)量的矩陣函數(shù) 152
8.1.5 關(guān)于矩陣的標(biāo)量函數(shù) 153
8.2 一些性質(zhì) 154
8.2.1 關(guān)于向量的標(biāo)量函數(shù) 154
8.2.2 關(guān)于標(biāo)量的向量函數(shù) 156
8.2.3 關(guān)于向量的向量函數(shù) 156
8.2.4 關(guān)于矩陣的標(biāo)量函數(shù) 157
8.3 雅可比矩陣和黑塞矩陣 158
8.3.1 雅可比矩陣 159
8.3.2 黑塞矩陣 163
8.4 矩陣微分的一些實(shí)例 168
8.4.1 元素級(jí)運(yùn)算求導(dǎo) 168
8.4.2 激活函數(shù)的導(dǎo)數(shù) 169
8.5 小結(jié) 171
第 9 章 神經(jīng)網(wǎng)絡(luò)中的數(shù)據(jù)流 172
9.1 數(shù)據(jù)的表示 172
9.1.1 在傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中表示數(shù)據(jù) 173
9.1.2 在深度卷積網(wǎng)絡(luò)中表示數(shù)據(jù) 173
9.2 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中的數(shù)據(jù)流 175
9.3 卷積神經(jīng)網(wǎng)絡(luò)中的數(shù)據(jù)流 178
9.3.1 卷積 179
9.3.2 卷積層 183
9.3.3 池化層 185
9.3.4 全連接層 186
9.3.5 綜合應(yīng)用 186
9.4 小結(jié) 189
第 10 章 反向傳播 190
10.1 什么是反向傳播 190
10.2 手把手進(jìn)行反向傳播 191
10.2.1 計(jì)算偏導(dǎo)數(shù) 192
10.2.2 用 Python 進(jìn)行實(shí)現(xiàn) 194
10.2.3 訓(xùn)練和測(cè)試模型 197
10.3 全連接網(wǎng)絡(luò)的反向傳播 199
10.3.1 誤差的反向傳播 199
10.3.2 關(guān)于權(quán)重和偏置求偏導(dǎo)數(shù) 201
10.3.3 Python 實(shí)現(xiàn)代碼 203
10.3.4 測(cè)試 Python 實(shí)現(xiàn)代碼 206
10.4 計(jì)算圖 208
10.5 小結(jié) 210
第 11 章 梯度下降 211
11.1 基本原理 211
11.1.1 一維函數(shù)的梯度下降 212
11.1.2 二維函數(shù)的梯度下降 214
11.2 隨機(jī)梯度下降 219
11.3 動(dòng)量機(jī)制 221
11.3.1 什么是動(dòng)量 221
11.3.2 一維情況下的動(dòng)量機(jī)制 222
11.3.3 二維情況下的動(dòng)量機(jī)制 223
11.3.4 在訓(xùn)練模型時(shí)引入動(dòng)量 225
11.3.5 涅斯捷洛夫動(dòng)量 229
11.4 自適應(yīng)梯度下降 231
11.4.1 RMSprop 231
11.4.2 Adagrad 232
11.4.3 Adam 233
11.4.4 關(guān)于優(yōu)化器的一些思考 234
11.5 小結(jié) 235
附錄 學(xué)無(wú)止境 236
概率與統(tǒng)計(jì) 236
線性代數(shù) 237
微積分 237
深度學(xué)習(xí) 237