[美]安德魯·格拉斯納:
擁有北卡羅來(lái)納州教堂山分校計(jì)算機(jī)科學(xué)博士學(xué)位,他是一位專門從事計(jì)算機(jī)圖形學(xué)和深度學(xué)習(xí)的研究的科學(xué)家。他目前是Weta Digital(維塔數(shù)碼)的高級(jí)研究科學(xué)家,致力于將深度學(xué)習(xí)與電影和電視世界級(jí)視覺(jué)效果的制作相結(jié)合。他曾在IBM沃森實(shí)驗(yàn)室、施樂(lè)PARC和微軟研究所等實(shí)驗(yàn)室擔(dān)任研究員。同時(shí)他也是最早的圖形研究雜志ACM-TOG9(計(jì)算機(jī)圖形學(xué)國(guó)際頂級(jí)期刊)的主編,和最早的計(jì)算機(jī)圖形學(xué)會(huì)議SIGGRAPH(Special Interest Group for Computer GRAPHICS,由美國(guó)計(jì)算機(jī)協(xié)會(huì)計(jì)算機(jī)圖形專業(yè)組組織的計(jì)算機(jī)圖形學(xué)頂級(jí)年度會(huì)議)的技術(shù)論文主席。他撰寫或編輯了十幾本關(guān)于計(jì)算機(jī)圖形學(xué)的技術(shù)書籍,包括著名的Principles of Digital Image Synthesis、Graphics Gems系列等。
譯者簡(jiǎn)介:
趙鳴,2006年獲華中師范大學(xué)計(jì)算機(jī)輔助教學(xué)碩士學(xué)位,2015年獲哈爾濱工業(yè)大學(xué)計(jì)算機(jī)應(yīng)用方向博士學(xué)位,現(xiàn)任長(zhǎng)江大學(xué)教授。目前主持在研省部級(jí)項(xiàng)目四項(xiàng),橫向項(xiàng)目?jī)身?xiàng)。他的研究興趣包括計(jì)算智能、圖像和信號(hào)處理、模式識(shí)別等。他是荊州市智慧警務(wù)專家成員,也是IEEE高級(jí)成員
曾小健,出版AI圖書多部,在量化金融和AI領(lǐng)域有多年經(jīng)驗(yàn),計(jì)算機(jī)博士在讀,CSDN博客專家,多個(gè)大模型開(kāi)源項(xiàng)目源碼貢獻(xiàn)人,曾在華為云、中關(guān)村在線等多所大型互聯(lián)網(wǎng)科技企業(yè)擔(dān)任重要職務(wù),GitHub:ArtificialZeng; CSDN:AI生成曾小健。
李現(xiàn)偉,日本早稻田大學(xué)博士畢業(yè),碩士生導(dǎo)師,主要從事大數(shù)據(jù)、機(jī)器學(xué)習(xí)、物聯(lián)網(wǎng)等方向的教學(xué)與工作。發(fā)表SCI論文20余篇,主持和參與安徽省自然科學(xué)基金、安徽省重點(diǎn)研究與開(kāi)發(fā)計(jì)劃、安徽省教育廳優(yōu)秀青年基金項(xiàng)目等多項(xiàng)。獲得中國(guó)發(fā)明協(xié)會(huì)創(chuàng)業(yè)獎(jiǎng)成果獎(jiǎng)二等獎(jiǎng),獲得綠色礦山科學(xué)技術(shù)獎(jiǎng)二等獎(jiǎng)一項(xiàng)。
任玉柱,畢業(yè)于國(guó)防科學(xué)技術(shù)大學(xué)網(wǎng)絡(luò)工程專業(yè),主要研究方向?yàn)樾畔踩,機(jī)器學(xué)習(xí),人工智能,發(fā)表相關(guān)領(lǐng)域研究文章3篇。
詳細(xì)目錄
致謝
前言
這本書是為誰(shuí)準(zhǔn)備的···············································································
這本書沒(méi)有復(fù)雜的數(shù)學(xué)和代碼
如果你想要的話,這里有代碼
圖片也可以找到!
勘誤
關(guān)于本書
第1部分:基礎(chǔ)理論
第2部分:初級(jí)機(jī)器學(xué)習(xí)
第3部分:深度學(xué)習(xí)的基礎(chǔ)
第4部分:進(jìn)階知識(shí)
最后的話·····························································································
第一部分 基礎(chǔ)理論 1
第1 章 機(jī)器學(xué)習(xí)技術(shù)概述 2
1.1 專家系統(tǒng)
1.2 監(jiān)督學(xué)習(xí)
1.3 無(wú)監(jiān)督學(xué)習(xí)
1.4 強(qiáng)化學(xué)習(xí)
1.5 深度學(xué)習(xí)
1.6 本章總結(jié)
第2 章 統(tǒng)計(jì)學(xué)基礎(chǔ) 11
2.1 描述隨機(jī)性
2.2 隨機(jī)變量與概率分布
2.3 常見(jiàn)的分布
詳細(xì)目錄 VII
2.3.1 連續(xù)分布
2.3.2 離散分布
2.4 隨機(jī)值的集合
2.4.1 期望值
2.4.2 依賴
2.4.3 獨(dú)立同分布變量
2.5 采樣與替換
2.5.1 替換采樣法
2.5.2 無(wú)替換采樣法
2.6 自采樣法
2.7 協(xié)方差和相關(guān)性
2.7.1 協(xié)方差
2.7.2 相關(guān)性
2.8 統(tǒng)計(jì)數(shù)據(jù)的局限性
2.9 高維空間
2.10 本章總結(jié)
第3 章 性能度量 37
3.1 不同類型的概率
3.1.1 投擲飛鏢
3.1.2 簡(jiǎn)單概率
3.1.3 條件概率
3.1.4 聯(lián)合概率
3.1.5 邊緣概率
3.2 評(píng)價(jià)正確性
3.2.1 樣本分類
3.2.2 混淆矩陣
3.2.3 錯(cuò)誤的特征
3.2.4 評(píng)價(jià)正確與否
3.2.5 準(zhǔn)確率
3.2.6 精度
3.2.7 召回率
3.2.8 精度與召回率的權(quán)衡
3.2.9 誤導(dǎo)性結(jié)果
3.2.10 F1分?jǐn)?shù)
3.2.11 關(guān)于這些指標(biāo)
3.2.12 其他評(píng)價(jià)方式
3.3 正確構(gòu)造混淆矩陣
3.4 本章總結(jié)
第4 章 貝葉斯方法 66
4.1 頻率法與貝葉斯概率
4.1.1 頻率法
4.1.2 貝葉斯方法
4.1.3 頻率派與貝葉斯派
4.2 頻率法拋擲硬幣
4.3 貝葉斯方法拋擲硬幣
4.3.1 啟發(fā)性的例子
4.3.2 繪制拋擲硬幣的概率
4.3.3 用概率表示拋擲硬幣
4.3.4 貝葉斯公式
4.3.5 關(guān)于貝葉斯公式的討論
4.4 貝葉斯公式與混淆矩陣
4.5 再論貝葉斯公式
4.5.1 后驗(yàn)-先驗(yàn)循環(huán)
4.5.2 貝葉斯循環(huán)實(shí)戰(zhàn)
4.6 多重假設(shè)
4.7 本章總結(jié)
第5 章 曲線和曲面
5.1 函數(shù)的性質(zhì)
5.2 導(dǎo)數(shù)
5.2.1 最大值和最小值
5.2.2 切線
5.2.3 用導(dǎo)數(shù)求最小值和最大值
5.3 梯度
5.3.1 水、重力和梯度
5.3.2 用梯度求最大值和最小值
5.3.3 鞍點(diǎn)
5.4 本章總結(jié)
第6 章 信息論
6.1 信息帶給我們的驚訝感
6.1.1 為什么會(huì)驚訝
6.1.2 信息解密
6.2 衡量信息量
6.3 自適應(yīng)碼
6.3.1 摩斯電碼
6.3.2 調(diào)整摩斯電碼
6.4 熵
6.5 交叉熵
6.5.1 兩種自適應(yīng)碼
6.5.2 使用編碼
6.5.3 實(shí)踐中的交叉熵 ·
6.6 KL散度
6.7 本章總結(jié)
第二部分 初級(jí)機(jī)器學(xué)習(xí)
第7 章 分類
7.1 二維空間的二元分類問(wèn)題
7.2 二維空間的多分類問(wèn)題
7.3 多元分類
7.3.1 一對(duì)多
7.3.2 一對(duì)一
7.4 聚類
7.5 維度詛咒
7.5.1 維度和密度
7.5.2 高維奇異性
7.6 本章總結(jié)
第8 章 訓(xùn)練和測(cè)試
8.1 訓(xùn)練
8.2 測(cè)試
8.2.1 測(cè)試集
8.2.2 驗(yàn)證集
8.3 交叉驗(yàn)證
8.4 k-Fold交叉驗(yàn)證法
8.5 本章總結(jié)
第9 章 過(guò)擬合與欠擬合
9.1 找到一個(gè)好的擬合
9.1.1 過(guò)擬合
9.1.2 欠擬合
9.2 檢測(cè)和解決過(guò)擬合
9.2.1 提前停止
9.2.2 正則化
9.3 偏差和方差
9.3.1 匹配基礎(chǔ)數(shù)據(jù)
9.3.2 高偏差與低方差
9.3.3 低偏差與高方差
9.3.4 比較曲線
9.4 用貝葉斯方法擬合直線
9.5 本章總結(jié)
第10 章 數(shù)據(jù)預(yù)處理
10.1 基本數(shù)據(jù)清洗
10.2 數(shù)據(jù)一致性
10.3 數(shù)據(jù)類型
10.4 獨(dú)熱編碼
10.5 歸一化與標(biāo)準(zhǔn)化
10.5.1 歸一化
10.5.2 標(biāo)準(zhǔn)化
10.5.3 記錄轉(zhuǎn)換過(guò)程
10.6 其他轉(zhuǎn)換方式
10.6.1 切片處理
10.6.2 樣本切片
10.6.3 特征切片
10.6.4 元素切片
10.7 逆變換
10.8 交叉驗(yàn)證中的信息泄露
10.9 收縮數(shù)據(jù)集
10.9.1 特征選擇
10.9.2 降維
10.10 主成分分析
10.10.1 簡(jiǎn)單圖像的PCA處理
10.10.2 真實(shí)圖像的主成分分析
10.11 本章總結(jié)
第11 章 分類器
11.1 常見(jiàn)分類器
11.2 k-最近鄰算法
11.3 決策樹(shù)
11.3.1 決策樹(shù)概覽
11.3.2 決策樹(shù)構(gòu)建
11.3.3 過(guò)擬合樹(shù)
11.3.4 拆分節(jié)點(diǎn)
11.4 支持向量機(jī)
11.4.1 基礎(chǔ)算法
11.4.2 支持向量機(jī)核函數(shù)
11.5 樸素貝葉斯
11.6 分類器的對(duì)比
11.7 本章總結(jié)
第12 章 集成學(xué)習(xí)
12.1 投票
12.2 決策樹(shù)的集成
12.2.1 裝袋算法
12.2.2 隨機(jī)森林
12.2.3 極端隨機(jī)樹(shù)集成
12.3 助推法
12.4 本章總結(jié)
第三部分 深度學(xué)習(xí)的基礎(chǔ)
第13 章 神經(jīng)網(wǎng)絡(luò)
13.1 生物神經(jīng)元
13.2 人工神經(jīng)元
13.2.1 感知器
13.2.2 現(xiàn)代人工神經(jīng)元
13.3 繪制神經(jīng)元
13.4 前饋網(wǎng)絡(luò)
13.5 神經(jīng)網(wǎng)絡(luò)圖
13.6 初始化權(quán)重
13.7 深度神經(jīng)網(wǎng)絡(luò)
13.8 全連接層
13.9 張量
13.10 防止坍縮
13.11 激活函數(shù)
13.11.1 直線函數(shù)
13.11.2 階躍函數(shù)
13.11.3 分段線性函數(shù)
13.11.4 平滑函數(shù)
13.11.5 激活函數(shù)圖像總結(jié)
13.11.6 比較激活函數(shù)
13.12 Softmax函數(shù)
13.13 本章總結(jié)
第14 章 反向傳播算法
14.1 訓(xùn)練過(guò)程概述
14.1.1 降低誤差
14.1.2 一種緩慢的學(xué)習(xí)算法
14.1.3 梯度下降
14.2 快速開(kāi)始
14.3 微型神經(jīng)網(wǎng)絡(luò)中的反向傳播
14.3.1 尋找輸出神經(jīng)元的增量
14.3.2 使用來(lái)調(diào)整權(quán)重
14.3.3 其他神經(jīng)元的值
14.4 大型神經(jīng)網(wǎng)絡(luò)中的反向傳播算法
14.5 學(xué)習(xí)率
14.5.1 構(gòu)建二分類器
14.5.2 選擇學(xué)習(xí)率
14.5.3 更小的學(xué)習(xí)率
14.6 本章總結(jié)
第15 章 優(yōu)化器
15.1 用二維曲線表示誤差
15.2 調(diào)整學(xué)習(xí)率
15.2.1 恒定大小的更新
15.2.2 隨著時(shí)間的推移改變學(xué)習(xí)率
15.2.3 衰減調(diào)整策略
15.3 更新策略
15.3.1 批量梯度下降法
15.3.2 隨機(jī)梯度下降法
15.3.3 小批次梯度下降法
15.4 梯度下降的變體
15.4.1 動(dòng)量
15.4.2 內(nèi)斯特羅夫動(dòng)量
15.4.3 AdaGrad算法
15.4.4 Adadelta和RMSProp算法
15.4.5 Adam算法
15.5 優(yōu)化器的選擇
15.6 正則化
15.6.1 Dropout
15.6.2 BatchNorm
15.7 本章總結(jié)
第四部分 進(jìn)階知識(shí)
第16 章 卷積神經(jīng)網(wǎng)絡(luò)
16.1 初識(shí)卷積
16.1.1 顏色檢測(cè)
16.1.2 權(quán)重共享
16.1.3 大一點(diǎn)的卷積核
16.1.4 卷積核和特征
16.1.5 填充
16.2 多維卷積
16.3 多重卷積核
16.4 卷積層
16.4.1 一維卷積
16.4.2 11卷積
16.5 更改輸出大小
16.5.1 池化
16.5.2 跨步前進(jìn)
16.5.3 轉(zhuǎn)置卷積
16.6 卷積核的層次結(jié)構(gòu)
16.6.1 簡(jiǎn)化假設(shè)
16.6.2 尋找面具
16.6.3 尋找眼睛、鼻子和嘴巴
16.6.4 應(yīng)用卷積核
16.7 本章總結(jié)
第17 章 卷積網(wǎng)絡(luò)實(shí)踐
17.1 手寫數(shù)字分類
17.2 VGG16
17.3 圖解卷積核(1)
17.4 圖解卷積核(2)
17.5 對(duì)抗樣本
17.6 本章總結(jié)
第18 章 自編碼器
18.1 編碼簡(jiǎn)介
18.2 混合表示
18.3 最簡(jiǎn)單的自編碼器
18.4 更好的自編碼器
18.5 探索自編碼器
18.5.1 探索潛在變量
18.5.2 參數(shù)空間
18.5.3 混合潛在變量
18.5.4 基于新輸入的預(yù)測(cè)
18.6 卷積自編碼器
18.6.1 混合潛在變量
18.6.2 基于新輸入的預(yù)測(cè)
18.7 去噪
18.8 可變自編碼器
18.8.1 潛在變量的分布
18.8.2 可變自編碼器結(jié)構(gòu)
18.9 探索VAE
18.9.1 使用MNIST樣本
18.9.2 使用兩個(gè)潛在變量
18.9.3 產(chǎn)生新的輸入
18.10 本章總結(jié)
第19 章 循環(huán)神經(jīng)網(wǎng)絡(luò)
19.1 處理語(yǔ)言
19.1.1 常見(jiàn)的NLP任務(wù)
19.1.2 文本數(shù)值化
19.1.3 微調(diào)和下游網(wǎng)絡(luò)
19.2 全連接預(yù)測(cè)
19.2.1 測(cè)試網(wǎng)絡(luò)
19.2.2 失敗的原因
19.3 循環(huán)神經(jīng)網(wǎng)絡(luò)
19.3.1 狀態(tài)
XVI
19.3.2 卷起圖表
19.3.3 實(shí)踐循環(huán)單元
19.3.4 訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)
19.3.5 長(zhǎng)短期記憶與門控循環(huán)網(wǎng)絡(luò)
19.4 使用循環(huán)神經(jīng)網(wǎng)絡(luò)
19.4.1 處理太陽(yáng)黑子數(shù)據(jù)
19.4.2 生成文本
19.4.3 其他架構(gòu)
19.5 Seq2Seq
19.6 本章總結(jié)
第20 章 注意力機(jī)制和Transformer模型
20.1 嵌入
20.1.1 詞嵌入技術(shù)
20.1.2 ELMo模型
20.2 注意力機(jī)制
20.2.1 形象比喻
20.2.2 自注意力機(jī)制
20.2.3 Q/KV注意力機(jī)制
20.2.4 多頭注意力機(jī)制
20.2.5 層圖標(biāo)
20.3 Transformer模型
20.3.1 跳躍連接
20.3.2 Norm-Add
20.3.3 位置編碼
20.3.4 構(gòu)建Transformer模塊
20.3.5 運(yùn)行Transformer模塊
20.4 BERT和GPT-2
20.4.1 BERT
20.4.2 GPT-2
20.4.3 生成器討論
20.4.4 數(shù)據(jù)中毒
20.5 本章總結(jié)
第21 章 強(qiáng)化學(xué)習(xí)
21.1 基本思想
21.2 學(xué)習(xí)新游戲
21.3 強(qiáng)化學(xué)習(xí)的結(jié)構(gòu)
21.3.1 步驟1:代理選擇操作
21.3.2 步驟2:環(huán)境做出反應(yīng)
21.3.3 步驟3:代理自我更新
21.3.4 回到全局
21.3.5 理解回報(bào)
21.4 Flippers
21.5 L-Learning
21.5.1 基礎(chǔ)知識(shí)
21.5.2 L-Learning算法
21.5.3 性能測(cè)試
21.5.4 不可預(yù)測(cè)性
21.6 Q-Learning
21.6.1 Q值和更新
21.6.2 Q-Learning策略
21.6.3 策略總覽
21.6.4 房間里的大象
21.6.5 Q-Learning的作用
21.7 SARSA
21.7.1 SARSA算法
21.7.2 SARSA的作用
21.7.3 Q-Learning與SARSA的比較
21.8 縱觀全局
21.9 本章總結(jié)
第22 章 生成對(duì)抗網(wǎng)絡(luò)
22.1 偽造籌碼
22.1.1 從經(jīng)驗(yàn)中學(xué)習(xí)
22.1.2 訓(xùn)練生成器網(wǎng)絡(luò)
22.1.3 學(xué)習(xí)過(guò)程
22.1.4 理解對(duì)抗性
22.2 實(shí)現(xiàn)生成對(duì)抗網(wǎng)絡(luò)
22.2.1 鑒別器
22.2.2 生成器
22.2.3 訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)
22.3 生成對(duì)抗網(wǎng)絡(luò)的作用
22.3.1 構(gòu)建鑒別器和生成器
22.3.2 訓(xùn)練網(wǎng)絡(luò)
22.3.3 測(cè)試網(wǎng)絡(luò)
22.4 深度卷積生成對(duì)抗網(wǎng)絡(luò)
22.5 挑戰(zhàn)
22.5.1 大樣本訓(xùn)練
22.5.2 模態(tài)崩潰
22.5.3 使用生成的數(shù)據(jù)訓(xùn)練
22.6 本章總結(jié)
第23 章 創(chuàng)意應(yīng)用
23.1 深夢(mèng)系統(tǒng)
23.1.1 刺激卷積核
23.1.2 測(cè)試我們的算法
23.2 神經(jīng)風(fēng)格遷移
23.2.1 表現(xiàn)風(fēng)格
23.2.2 表現(xiàn)內(nèi)容
23.2.3 風(fēng)格和內(nèi)容
23.2.4 測(cè)試算法
23.3 生成本書更多內(nèi)容
23.4 本章總結(jié)
23.5 最后的思考
參考文獻(xiàn)
圖片來(lái)源
索引