PyTorch高級機(jī)器學(xué)習(xí)實(shí)戰(zhàn)
定 價(jià):109 元
叢書名:人工智能科學(xué)與技術(shù)叢書
- 作者:王宇龍 編著
- 出版時(shí)間:2023/3/1
- ISBN:9787111719960
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類:TP181
- 頁碼:312
- 紙張:
- 版次:
- 開本:16
本書講解了經(jīng)典的高級機(jī)器學(xué)習(xí)算法原理與知識,包括常見的監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、概率圖模型、核方法、深度神經(jīng)網(wǎng)絡(luò),以及強(qiáng)化學(xué)習(xí)等內(nèi)容,同時(shí)更強(qiáng)調(diào)動(dòng)手實(shí)踐。所有算法均利用PyTorch計(jì)算框架進(jìn)行實(shí)現(xiàn),并且在各章節(jié)配備實(shí)戰(zhàn)環(huán)節(jié),內(nèi)容涵蓋點(diǎn)擊率預(yù)估、異常檢測、概率圖模型變分推斷、高斯過程超參數(shù)優(yōu)化、深度強(qiáng)化學(xué)習(xí)智能體訓(xùn)練等內(nèi)容。
本書附贈(zèng)所有案例的源代碼及各類學(xué)習(xí)資料來源,適合具有一定編程基礎(chǔ)的人工智能愛好者學(xué)習(xí),也是相關(guān)從業(yè)者和研究人員的學(xué)習(xí)指南。
前言
第1章 機(jī)器學(xué)習(xí)概述/
1.1 機(jī)器學(xué)習(xí)簡介/
1.1.1 機(jī)器學(xué)習(xí)的含義/
1.1.2 機(jī)器學(xué)習(xí)概述/
1.1.3 不同類型的機(jī)器學(xué)習(xí)算法/
1.2 數(shù)據(jù)處理/
1.2.1 數(shù)據(jù)特征分類及表示/
1.2.2 數(shù)據(jù)預(yù)處理/
1.2.3 數(shù)據(jù)缺失處理/
1.2.4 特征衍生和交叉/
1.2.5 特征篩選/
1.3 衡量標(biāo)準(zhǔn)/
1.3.1 模型評估指標(biāo)/
1.3.2 數(shù)據(jù)集劃分/
1.3.3 超參數(shù)優(yōu)化/
1.4 優(yōu)化目標(biāo)/
1.4.1 損失函數(shù)/
1.4.2 梯度下降優(yōu)化/
1.4.3 受約束優(yōu)化:Lagrange函數(shù)/
1.5 實(shí)戰(zhàn):簡單模型實(shí)現(xiàn)Titanic乘客生存概率預(yù)測/
1.5.1 問題描述與數(shù)據(jù)特征/
1.5.2 簡單屬性分類模型實(shí)現(xiàn)預(yù)測/
第2章 PyTorch基本操作介紹/
2.1 PyTorch簡介/
2.2 核心概念:Tensor/
2.2.1 Tensor基本操作/
2.2.2 基本數(shù)學(xué)運(yùn)算/
2.2.3 索引分片操作/
2.2.4 類成員方法/
2.3 自動(dòng)求導(dǎo)(Autograd)/
2.3.1 可微分張量/
2.3.2 Function:實(shí)現(xiàn)自動(dòng)微分的基礎(chǔ)/
2.4 神經(jīng)網(wǎng)絡(luò)核心模塊:torch.nn/
2.4.1 nn.Module概述/
2.4.2 函數(shù)式操作nn.functional/
2.5 優(yōu)化器(optimizer)/
2.5.1 optimizer概述/
2.5.2 學(xué)習(xí)率調(diào)節(jié)/
2.5.3 經(jīng)典優(yōu)化器介紹/
2.6 數(shù)據(jù)加載/
2.6.1 Dataset與DataLoader介紹/
2.6.2 預(yù)處理變換torchvision.transforms/
2.7 高級操作/
2.7.1 GPU運(yùn)算/
2.7.2 利用C++實(shí)現(xiàn)自定義算子/
2.8 實(shí)戰(zhàn):Wide & Deep模型實(shí)現(xiàn)Criteo點(diǎn)擊率預(yù)估/
2.8.1 問題定義與數(shù)據(jù)特征/
2.8.2 Wide & Deep模型介紹/
2.8.3 完整實(shí)驗(yàn)流程/
第3章 監(jiān)督學(xué)習(xí)/
3.1 線性回歸(Linear Regression)/
3.1.1 小二乘法(Least Square Method)/
3.1.2 嶺回歸(Ridge Regression)/
3.1.3 貝葉斯線性回歸(Bayesian Linear Regression)/
3.2 邏輯回歸(Logistic Regression)/
3.2.1 二分類邏輯回歸/
3.2.2 多分類Softmax回歸/
3.2.3 貝葉斯邏輯回歸(Bayesian Logistic Regression)/
3.3 支持向量機(jī)(Support Vector Machine,SVM)/
3.3.1 線性可分下SVM的定義/
3.3.2 利用隨機(jī)梯度下降求解/
3.3.3 凸優(yōu)化簡介/
3.3.4 SVM對偶問題表示/
3.3.5 梯度下降法求解對偶問題/
3.3.6 從Hard SVM擴(kuò)展到Soft SVM/
3.3.7 支持向量回歸(Support Vector Regression,SVR)/
3.3.8 帶有松弛變量的SVR及對偶優(yōu)化方法/
3.4 決策樹模型(Decision Tree)/
3.4.1 構(gòu)建單個(gè)樹模型/
3.4.2 集成學(xué)習(xí)(Ensemble Learning)/
3.5 K近鄰算法(K Nearest Neighbors,KNN)/
3.6 實(shí)戰(zhàn):復(fù)雜模型實(shí)現(xiàn)Titanic旅客生存概率預(yù)測/
3.6.1 Titanic數(shù)據(jù)集特征處理/
3.6.2 多種模型預(yù)測性能對比/
第4章 無監(jiān)督學(xué)習(xí)/
4.1 聚類方法(Clustering Method)/
4.1.1 KMeans聚類/
4.1.2 譜聚類(Spectral Clustering)/
4.1.3 聚合聚類(Agglomerative Clustering)/
4.2 密度估計(jì)(Density Estimation)/
4.2.1 高斯混合模型(Gaussian Mixture Model)/
4.2.2 期望大化算法(Expectation Maximization,EM)/
4.3 降維與嵌入(Dimension Reduction & Embedding)/
4.3.1 主成分分析(Principal Component Analysis,PCA)/
4.3.2 局部線性嵌入(Locally Linear Embedding,LLE)/
4.3.3 隨機(jī)鄰居嵌入算法(tSNE)/
4.4 實(shí)戰(zhàn):無監(jiān)督方法實(shí)現(xiàn)異常檢測(Anomaly Detection)/
4.4.1 異常檢測問題與應(yīng)用/
4.4.2 實(shí)現(xiàn)基于PCA的異常檢測方法/
4.4.3 實(shí)現(xiàn)基于Mahalanobis距離的異常檢測方法/
4.4.4 實(shí)現(xiàn)基于聚類的局部異常因子檢測方法/
第5章 PyTorch高級機(jī)器學(xué)習(xí)實(shí)戰(zhàn)概率圖模型/
5.1 有向圖:貝葉斯網(wǎng)絡(luò)(Bayesian Network)/
5.1.1 有向圖的概率分解/
5.1.2 條件獨(dú)立性(Conditional Independence)/
5.2 無向圖:馬爾可夫隨機(jī)場(Markov Random Field,MRF)/
5.2.1 無向圖的概率分解/
5.2.2 具體應(yīng)用:圖像去噪(Image Denoising)/
5.3 隱馬爾可夫模型(Hidden Markov Model,HMM)/
5.3.1 隱馬爾可夫模型介紹/
5.3.2 前向后向算法(ForwardBackward Algorithm)/
5.3.3 放縮提升運(yùn)算穩(wěn)定性/
5.3.4 代碼實(shí)現(xiàn)/
5.4 變分推斷(Variational Inference,VI)/
5.4.1 后驗(yàn)分布優(yōu)化與ELBO/
5.4.2 黑盒變分推斷算法(BlackBox Variational Inference,BBVI)/
5.5 蒙特卡羅采樣(Monte Carlo Sampling)/
5.5.1 拒絕采樣(Rejection Sampling)/
5.5.2 馬爾可夫鏈蒙特卡羅(Markov Chain Monte Carlo)/
5.5.3 吉布斯采樣(Gibbs Sampling)/
5.5.4 哈密頓蒙特卡羅采樣(Hamiltonian Monte Carlo,HMC)/
5.6 實(shí)戰(zhàn):變分高斯混合模型(Variational Gaussian Mixture Model)/
5.6.1 擴(kuò)展GMM:貝葉斯高斯混合模型(Bayesian Gaussian Mixture Model)/
5.6.2 變分推斷近似/
5.6.3 代碼實(shí)現(xiàn)/
第6章 核方法/
6.1 核函數(shù)及核技巧/
6.2核化KMeans算法(Kernel KMeans)/
6.2.1 KMeans算法回顧/
6.2.2 具體實(shí)現(xiàn)/
6.3 核化支持向量機(jī)(Kernel SVM)/
6.3.1 SVM對偶問題及核函數(shù)表示/
6.3.2 核化支持向量回歸(Kernel SVR)/
6.4 核化主成分分析 (Kernel PCA,KPCA)/
6.4.1 回顧PCA及核化表示/
6.4.2 核中心化技巧及實(shí)現(xiàn)/
6.5 高斯過程(Gaussian Process,GP)/
6.5.1 高斯過程定義及基本性質(zhì)/
6.5.2 核函數(shù)參數(shù)選取優(yōu)化/
6.6 實(shí)戰(zhàn):利用高斯過程進(jìn)行超參數(shù)優(yōu)化/
6.6.1 超參數(shù)優(yōu)化(Hyperparameter Optimization)/
6.6.2 具體實(shí)現(xiàn)/
第7章 深度神經(jīng)網(wǎng)絡(luò)/
7.1 神經(jīng)網(wǎng)絡(luò)(Neural Network)/
7.1.1 基本算子操作/
7.1.2 常見網(wǎng)絡(luò)結(jié)構(gòu)/
7.1.3 網(wǎng)絡(luò)訓(xùn)練/
7.2 變分自編碼器(Variational AutoEncoder,VAE)/
7.2.1 多種自編碼器介紹/
7.2.2 變分自編碼器/
7.3 深度生成模型(Deep Generative Model,DGM)/
7.3.1 受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)/
7.3.2 生成式對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)/
7.4 實(shí)戰(zhàn):利用CycleGAN進(jìn)行圖片風(fēng)格轉(zhuǎn)換/
7.4.1 CycleGAN模型介紹/
7.4.2 模型實(shí)現(xiàn)/
第8章 強(qiáng)化學(xué)習(xí)/
8.1 經(jīng)典強(qiáng)化學(xué)習(xí)介紹/
8.1.1 基本概念介紹/
8.1.2 強(qiáng)化學(xué)習(xí)環(huán)境OpenAI Gym/
8.2 馬爾可夫決策過程(Markov Decision Process,MDP)/
8.2.1 MDP定義及貝爾曼優(yōu)方程/
8.2.2 策略迭代(Policy Iteration)和價(jià)值迭代(Value Iteration)/
8.2.3 蒙特卡羅采樣學(xué)習(xí)(Monte Carlo Learning)/
8.2.4 時(shí)序差分學(xué)習(xí)(Temporal Difference Learning,TDLearning)/
8.3 基于Q價(jià)值函數(shù)的深度強(qiáng)化學(xué)習(xí)/
8.3.1 深度Q網(wǎng)絡(luò)(Deep QNetwork,DQN)/
8.3.2 其他DQN改進(jìn)模型/
8.4 基于策略優(yōu)化的深度強(qiáng)化學(xué)習(xí)/
8.4.1 策略梯度算法(Policy Gradient)/
8.4.2 Advantage ActorCritic(A2C)算法/
8.4.3 近鄰策略優(yōu)化法(Proximal Policy Optimization,PPO)/
8.4.4 深度確定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)/
8.4.5 Soft Actor Critic(SAC)算法/
8.5 實(shí)戰(zhàn):在Atari游戲環(huán)境中進(jìn)行深度強(qiáng)化學(xué)習(xí)評測/
8.5.1 Atari游戲環(huán)境及預(yù)處理方式/
8.5.2 多種深度強(qiáng)化學(xué)習(xí)性能比較/
參考文獻(xiàn)/