本書以一名深度學(xué)習(xí)學(xué)習(xí)者的視角展開深度學(xué)習(xí)相關(guān)的理論、技術(shù)和實(shí)踐寫作,因而命名為深度學(xué)習(xí)筆記。本書作為一本以“筆記”命名的深度學(xué)習(xí)圖書,主要定位是面向廣大希望入門深度學(xué)習(xí)的初學(xué)者。本書以深度神經(jīng)網(wǎng)絡(luò)(DNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)為核心,詳細(xì)介紹了深度學(xué)習(xí)的理論基礎(chǔ)、通用方法和三大網(wǎng)絡(luò)的原理與實(shí)踐。全書代碼以Keras框架作為范例,對(duì)于初學(xué)者而言簡(jiǎn)單易懂。
對(duì)于深度學(xué)習(xí)而言,本書內(nèi)容豐富,知識(shí)覆蓋面廣,兼有代碼實(shí)戰(zhàn),適合想要入門深度學(xué)習(xí)的廣大學(xué)習(xí)者閱讀。
魯偉,貝葉斯統(tǒng)計(jì)方向碩士畢業(yè),深度學(xué)習(xí)算法工程師,微信公眾號(hào)“機(jī)器學(xué)習(xí)實(shí)驗(yàn)室”主編,對(duì)人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、醫(yī)學(xué)圖像處理和計(jì)算機(jī)視覺等有深入研究。
第1講神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)1
1.1機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的關(guān)系2
1.2感知機(jī)與神經(jīng)網(wǎng)絡(luò)3
第2講神經(jīng)網(wǎng)絡(luò)的過擬合與正則化7
2.1機(jī)器學(xué)習(xí)的核心要義8
2.2范數(shù)與正則化9
2.3神經(jīng)網(wǎng)絡(luò)的正則化和Dropout11
第3講深度學(xué)習(xí)的優(yōu)化算法14
3.1機(jī)器學(xué)習(xí)的數(shù)學(xué)規(guī)約15
3.2損失函數(shù)和深度學(xué)習(xí)優(yōu)化算法15
3.3梯度下降法16
3.4從Momentum到Adam18
第4講卷積神經(jīng)網(wǎng)絡(luò)21
4.1CNN發(fā)展簡(jiǎn)史與相關(guān)人物22
4.2卷積的含義23
4.3池化和全連接26
深度學(xué)習(xí)筆記目錄第5講CNN圖像學(xué)習(xí)過程與可視化28
5.1CNN的直觀理解29
5.2CNN圖像學(xué)習(xí)的可視化31
第6講CNN圖像分類:從LeNet5到EfficientNet37
6.1計(jì)算機(jī)視覺的三大任務(wù)38
6.2CNN圖像分類發(fā)展史39
第7講CNN目標(biāo)檢測(cè):從RCNN到Y(jié)OLO47
7.1目標(biāo)檢測(cè)概述48
7.2CNN目標(biāo)檢測(cè)算法49
第8講CNN圖像分割:從FCN到U-Net56
8.1語義分割和實(shí)例分割概述57
8.2語義分割58
第9講遷移學(xué)習(xí)理論與實(shí)踐65
9.1遷移學(xué)習(xí):深度學(xué)習(xí)未來五年的驅(qū)動(dòng)力?66
9.2遷移學(xué)習(xí)的使用場(chǎng)景66
9.3深度卷積網(wǎng)絡(luò)的可遷移性67
9.4遷移學(xué)習(xí)的使用方法68
9.5基于ResNet的遷移學(xué)習(xí)實(shí)驗(yàn)68
第10講循環(huán)神經(jīng)網(wǎng)絡(luò)76
10.1從語音識(shí)別到自然語言處理77
10.2RNN:網(wǎng)絡(luò)架構(gòu)與技術(shù)79
10.3四種RNN結(jié)構(gòu)81
第11講長(zhǎng)短期記憶網(wǎng)絡(luò)84
11.1深度神經(jīng)網(wǎng)絡(luò)的困擾:梯度爆炸與梯度消失85
11.2LSTM:讓RNN具備更好的記憶機(jī)制87
第12講自然語言處理與詞向量91
12.1自然語言處理簡(jiǎn)介92
12.2詞匯表征93
12.3詞向量與語言模型94
第13講word2vec詞向量98
13.1word2vec99
13.2word2vec的訓(xùn)練過程:以CBOW為例100
第14講seq2seq與注意力模型104
14.1seq2seq的簡(jiǎn)單介紹105
14.2注意力模型105
14.3基于seq2seq和Attention機(jī)制的機(jī)器翻譯實(shí)踐108
第15講語音識(shí)別118
15.1概述119
15.2信號(hào)處理與特征提取120
15.3傳統(tǒng)聲學(xué)模型122
15.4基于深度學(xué)習(xí)的聲學(xué)模型123
15.5端到端的語音識(shí)別系統(tǒng)簡(jiǎn)介125
第16講從Embedding到XLNet:NLP預(yù)訓(xùn)練模型簡(jiǎn)介127
16.1從Embedding到ELMo128
16.2特征提取器:Transformer129
16.3低調(diào)王者:GPT131
16.4封神之作:BERT131
16.5持續(xù)創(chuàng)新:XLNet132
第17講深度生成模型之自編碼器134
17.1自編碼器135
17.2自編碼器的降噪作用136
17.3變分自編碼器138
17.4VAE的Keras實(shí)現(xiàn)143
第18講深度生成模型之生成式對(duì)抗網(wǎng)絡(luò)148
18.1GAN149
18.2訓(xùn)練一個(gè)DCGAN151
第19講神經(jīng)風(fēng)格遷移、深度強(qiáng)化學(xué)習(xí)與膠囊網(wǎng)絡(luò)159
19.1神經(jīng)風(fēng)格遷移160
19.2深度強(qiáng)化學(xué)習(xí)162
19.3膠囊網(wǎng)絡(luò)166
第20講深度學(xué)習(xí)框架171
20.1概述172
20.2TensorFlow173
20.3Keras175
20.4PyTorch176
第21講深度學(xué)習(xí)數(shù)據(jù)集179
21.1CV經(jīng)典數(shù)據(jù)集180
21.2NLP經(jīng)典數(shù)據(jù)集187
參考文獻(xiàn)189