第1章 機(jī)器學(xué)習(xí)入門基礎(chǔ)
1.1 什么是機(jī)器學(xué)習(xí)
1.2 機(jī)器學(xué)習(xí)的思維
1.3 機(jī)器學(xué)習(xí)的基本框架體系
1.4 機(jī)器學(xué)習(xí)項(xiàng)目的實(shí)施流程
1.5 機(jī)器學(xué)習(xí)有什么用
1.6 小結(jié)
第2章 應(yīng)用Python實(shí)現(xiàn)機(jī)器學(xué)習(xí)前的準(zhǔn)備
2.1 為什么使用Python
2.2 Python機(jī)器學(xué)習(xí)的一些常用庫(kù)
2.2.1 科學(xué)計(jì)算包(Numpy)簡(jiǎn)介及應(yīng)用
2.2.2 數(shù)據(jù)分析工具(Pandas)簡(jiǎn)介及應(yīng)用
2.2.3 數(shù)值計(jì)算包(Scipy)簡(jiǎn)介及應(yīng)用
2.2.4 繪圖工具庫(kù)(Matplotlib)簡(jiǎn)介及應(yīng)用
2.2.5 機(jī)器學(xué)習(xí)包(Scikitlearn)簡(jiǎn)介及應(yīng)用
2.3 Anaconda的安裝與使用
2.3.1 Anaconda的安裝
2.3.2 Anaconda中集成工具的使用
2.3.3 Conda的環(huán)境管理
2.4 Jupyter Notebook模式
2.4.1 Jupyter Notebook模式的特點(diǎn)
2.4.2 Jupyter Notebook模式的圖形界面
2.5 小結(jié)
第3章 從簡(jiǎn)單案例入手:?jiǎn)巫兞烤性回歸
3.1 回歸的本質(zhì)
3.1.1 擬合的概念
3.1.2 擬合與回歸的區(qū)別
3.1.3 回歸的誕生
3.1.4 回歸的本質(zhì)含義
3.2 單變量線性回歸算法
3.2.1 單變量線性回歸的基本設(shè)定
3.2.2 單變量線性回歸的常規(guī)求解
3.2.3 單變量線性回歸的評(píng)價(jià)與預(yù)測(cè)
3.3 用機(jī)器學(xué)習(xí)思維構(gòu)建單變量線性回歸模型
3.3.1 一個(gè)簡(jiǎn)單案例:波士頓房屋價(jià)格的擬合與預(yù)測(cè)
3.3.2 數(shù)據(jù)集劃分
3.3.3 模型求解與預(yù)測(cè)的Python實(shí)現(xiàn)
3.3.4 模型評(píng)價(jià)
3.3.5 與最小二乘法預(yù)測(cè)效果的比較
3.4 機(jī)器學(xué)習(xí)的初步印象總結(jié)
3.5 小結(jié)
第4章 線性回歸算法進(jìn)階
4.1 多變量線性回歸算法
4.1.1 多變量線性回歸算法的最小二乘求解
4.1.2 多變量線性回歸的Python實(shí)現(xiàn):影廳觀影人數(shù)的擬合(一)
4.2 梯度下降法求解多變量線性回歸
4.2.1 梯度下降的含義
4.2.2 梯度下降的相關(guān)概念
4.2.3 梯度下降法求解線性回歸算法
4.2.4 梯度下降法的Python實(shí)現(xiàn):影廳觀影人數(shù)的擬合(二)
4.3 線性回歸的正則化
4.3.1 為什么要使用正則化
4.3.2 正則化的原理
4.3.3 基于最小二乘法的正則化
4.3.4 基于梯度下降法的正則化
4.4 嶺回歸
4.4.1 嶺回歸的原理
4.4.2 嶺參數(shù)的取值方法
4.4.3 嶺回歸的Python實(shí)現(xiàn):影廳觀影人數(shù)的擬合(三)
4.5 Lasso回歸
4.5.1 Lasso回歸的原理
4.5.2 Lasso回歸的參數(shù)求解
4.5.3 Lasso回歸的Python實(shí)現(xiàn):影廳觀影人數(shù)的擬合(四)
4.6 小結(jié)
第5章 邏輯回歸算法
5.1 從線性回歸到分類問(wèn)題
5.2 基于Sigmoid函數(shù)的分類
5.3 使用梯度下降法求最優(yōu)解
5.3.1 對(duì)數(shù)似然函數(shù)
5.3.2 最大似然
5.3.3 梯度下降法的參數(shù)求解
5.4 邏輯回歸的Python實(shí)現(xiàn)
5.4.1 梯度下降法求解的Python示例:預(yù)測(cè)學(xué)生是否被錄。ㄒ唬
5.4.2 用Scikit learn做邏輯回歸:預(yù)測(cè)學(xué)生是否被錄取(二)
5.4.3 兩種實(shí)現(xiàn)方式的比較
5.5 邏輯回歸的正則化
5.6 小結(jié)
第6章 貝葉斯分類算法
6.1 貝葉斯分類器的分類原理
6.1.1 貝葉斯定理
6.1.2 貝葉斯定理的一個(gè)簡(jiǎn)單例子
6.1.3 貝葉斯分類的原理與特點(diǎn)
6.2 樸素貝葉斯分類
6.2.1 樸素貝葉斯為什么是樸素的
6.2.2 樸素貝葉斯分類算法的原理
6.2.3 樸素貝葉斯分類算法的參數(shù)估計(jì)
6.2.4 樸素貝葉斯的優(yōu)、缺點(diǎn)及應(yīng)用場(chǎng)景
6.3 高斯樸素貝葉斯分類算法
6.3.1 高斯樸素貝葉斯的Python實(shí)現(xiàn):借款者信用等級(jí)評(píng)估(一)
6.3.2 預(yù)測(cè)結(jié)果的評(píng)價(jià)及其與邏輯回歸算法的比較
6.4 多項(xiàng)式樸素貝葉斯分類算法
6.4.1 多項(xiàng)式樸素貝葉斯算法的原理
6.4.2 多項(xiàng)式樸素貝葉斯的Python實(shí)現(xiàn):借款者信用等級(jí)評(píng)估(二)
6.5 伯努利樸素貝葉斯分類算法
6.6 貝葉斯網(wǎng)絡(luò)算法的基本原理與特點(diǎn)
6.6.1 貝葉斯網(wǎng)絡(luò)算法的基本原理
6.6.2 貝葉斯網(wǎng)絡(luò)算法的實(shí)現(xiàn)及其特點(diǎn)
6.7 小結(jié)
第7章 基于決策樹的分類算法
7.1 決策樹分類算法原理
7.1.1 以信息論為基礎(chǔ)的分類原理
7.1.2 決策樹分類算法框架
7.1.3 衡量標(biāo)準(zhǔn):信息熵
7.1.4 決策樹算法的簡(jiǎn)化
7.1.5 決策樹算法的優(yōu)、缺點(diǎn)與應(yīng)用
7.2 基本決策樹ID3算法
7.2.1 特征選擇之信息增益
7.2.2 ID3算法原理與步驟
7.2.3 ID3算法的一個(gè)簡(jiǎn)單例子:顧客購(gòu)買服裝的屬性分析(一)
7.2.4 ID3算法的Python實(shí)現(xiàn):顧客購(gòu)買服裝的屬性分析(二)
7.3 其他決策樹算法
7.3.1 C4.5算法
7.3.2 CART算法
7.3.3 CART算法的應(yīng)用舉例:顧客購(gòu)買服裝的屬性分析(三)
7.3.4 CART算法的Python實(shí)現(xiàn):顧客購(gòu)買服裝的屬性分析(四)
7.4 決策樹剪枝方法
7.4.1 預(yù)剪枝及其實(shí)現(xiàn)
7.4.2 后剪枝之錯(cuò)誤率降低剪枝方法
7.4.3 后剪枝之悲觀錯(cuò)誤剪枝方法
7.5 決策樹的集成學(xué)習(xí)算法之隨機(jī)森林
7.5.1 集成學(xué)習(xí)算法
7.5.2 隨機(jī)森林
7.5.3 隨機(jī)森林的Python實(shí)現(xiàn):解決交通擁堵問(wèn)題(一)
7.6 小結(jié)
第8章 K近鄰算法
8.1 K近鄰算法的原理與特點(diǎn)
8.1.1 K近鄰算法的原理
8.1.2 K近鄰算法需要解決的問(wèn)題
8.1.3 K近鄰算法的優(yōu)、缺點(diǎn)
8.2 K近鄰算法的具體內(nèi)容探討
8.2.1 距離的度量
8.2.2 最優(yōu)屬性K的決定
8.2.3 K近鄰的快速搜索之Kd樹
8.3 K近鄰算法的應(yīng)用
8.3.1 K近鄰算法的一個(gè)簡(jiǎn)單例子:文化公司推廣活動(dòng)的效果預(yù)估
8.3.2 K近鄰算法的Python實(shí)現(xiàn):解決交通擁堵問(wèn)題(二)
8.4 小結(jié)
第9章 支持向量機(jī)
9.1 支持向量機(jī)的基本知識(shí)
9.1.1 超平面
9.1.2 間隔與間隔最大化
9.1.3 函數(shù)間隔與幾何間隔
9.2 不同情形下的支持向量機(jī)
9.2.1 線性可分下的支持向量機(jī)
9.2.2 線性不可分下的支持向量機(jī)
9.2.3 非線性支持向量機(jī)
9.2.4 非線性支持向量機(jī)之核函數(shù)
9.2.5 多類分類支持向量機(jī)
9.2.6 支持向量回歸機(jī)
9.3 支持向量機(jī)的Python實(shí)現(xiàn)
9.3.1 線性可分SVM的Python實(shí)現(xiàn)
9.3.2 線性不可分SVM的Python實(shí)現(xiàn)
9.3.3 非線性可分SVM的Python實(shí)現(xiàn)
9.3.4 支持向量回歸機(jī)SVR的Python實(shí)現(xiàn)
9.4 小結(jié)
第10章 人工神經(jīng)網(wǎng)絡(luò)
10.1 人工神經(jīng)網(wǎng)絡(luò)入門
10.1.1 從神經(jīng)元到神經(jīng)網(wǎng)絡(luò)
10.1.2 神經(jīng)網(wǎng)絡(luò)決策的一個(gè)簡(jiǎn)單例子:小李要不要看電影
10.2 人工神經(jīng)網(wǎng)絡(luò)基本理論
10.2.1 激活函數(shù)
10.2.2 人工神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)
10.2.3 人工神經(jīng)網(wǎng)絡(luò)的主要類型
10.2.4 人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)
10.2.5 一個(gè)案例:異或邏輯的實(shí)現(xiàn)
10.3 BP神經(jīng)網(wǎng)絡(luò)算法
10.3.1 BP算法的網(wǎng)絡(luò)結(jié)構(gòu)與訓(xùn)練方式
10.3.2 信息正向傳遞與誤差反向傳播
10.3.3 BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)流程
10.3.4 BP算法的一個(gè)演示舉例
10.4 人工神經(jīng)網(wǎng)絡(luò)的Python實(shí)現(xiàn)
10.4.1 人工神經(jīng)網(wǎng)絡(luò)的Python案例:手寫數(shù)字的識(shí)別
10.4.2 手寫數(shù)字?jǐn)?shù)據(jù)的神經(jīng)網(wǎng)絡(luò)訓(xùn)練
10.4.3 手寫數(shù)字?jǐn)?shù)據(jù)的神經(jīng)網(wǎng)絡(luò)評(píng)價(jià)與預(yù)測(cè)
10.5 從人工神經(jīng)網(wǎng)絡(luò)到深度學(xué)習(xí)
10.5.1 從人工神經(jīng)網(wǎng)絡(luò)到深度學(xué)習(xí)的演進(jìn)
10.5.2
深度學(xué)習(xí)相比ANN的技術(shù)突破
10.6 小結(jié)
第11章 聚類算法
11.1 聚類算法概述
11.1.1 監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí):原理與區(qū)別
11.1.2 從監(jiān)督學(xué)習(xí)到無(wú)監(jiān)督學(xué)習(xí)
11.1.3 聚類算法簡(jiǎn)介與應(yīng)用
11.1.4 主要的聚類算法
11.1.5 聚類結(jié)果的有效性評(píng)價(jià)
11.2 聚類之K均值算法
11.2.1 K均值算法的思想
11.2.2 K均值算法的流程
11.2.3 K均值算法的一個(gè)簡(jiǎn)單例子:二維樣本的聚類
11.2.4 K均值算法的Python實(shí)現(xiàn):不同含量果汁飲料的聚類(一)
11.3 層次聚類算法
11.3.1 層次聚類算法基本原理
11.3.2 算法的距離度量方法
11.3.3 層次聚類的簡(jiǎn)單案例之AGNES算法
11.3.4 層次聚類的簡(jiǎn)單案例之DIANA算法
11.3.5 層次聚類的Python實(shí)現(xiàn):不同含量果汁飲料的聚類(二)
11.4 其他類型聚類算法簡(jiǎn)介
11.4.1 基于密度的DBSCAN算法
11.4.2 基于網(wǎng)格的STING算法
11.5 小結(jié)
第12章 降維技術(shù)與關(guān)聯(lián)規(guī)則挖掘
12.1 降維技術(shù)
12.2 PCA降維技術(shù)的原理與實(shí)現(xiàn)
12.2.1 主成分分析(PCA)的基本原理
12.2.2 主成分分析(PCA)的步驟
12.2.3 PCA降維的一個(gè)簡(jiǎn)單案例:二維樣本的降維(一)
12.2.4 PCA降維的Python實(shí)現(xiàn):二維樣本的降維(二)
12.3 LDA降維技術(shù)的原理與實(shí)現(xiàn)
12.3.1 判別問(wèn)題與線性判別函數(shù)
12.3.2 線性判別分析(LDA)的基本原理
12.3.3 LDA的特點(diǎn)與局限性
12.3.4 LDA降維技術(shù)的Python實(shí)現(xiàn):二維樣本的降維(三)
12.4 關(guān)聯(lián)規(guī)則挖掘概述
12.4.1 關(guān)聯(lián)規(guī)則挖掘的相關(guān)定義
12.4.2 關(guān)聯(lián)規(guī)則的挖掘過(guò)程
12.4.3 關(guān)聯(lián)規(guī)則挖掘的分類
12.5 關(guān)聯(lián)規(guī)則挖掘的主要算法
12.5.1 Apriori算法簡(jiǎn)介及案例:用戶資訊瀏覽的挖掘(一)
12.5.2 FP
Growth算法簡(jiǎn)介及案例:用戶資訊瀏覽的挖掘(二)
12.6 小結(jié)
第13章 機(jī)器學(xué)習(xí)項(xiàng)目實(shí)戰(zhàn)全流程入門
13.1 機(jī)器學(xué)習(xí)項(xiàng)目實(shí)戰(zhàn)概述
13.1.1 機(jī)器學(xué)習(xí)項(xiàng)目實(shí)戰(zhàn)的意義
13.1.2 如何入門一個(gè)機(jī)器學(xué)習(xí)競(jìng)賽項(xiàng)目
13.2 一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)項(xiàng)目實(shí)戰(zhàn):房?jī)r(jià)預(yù)測(cè)
13.3 項(xiàng)目實(shí)戰(zhàn)之?dāng)?shù)據(jù)預(yù)處理
13.3.1 數(shù)據(jù)加載與預(yù)覽
13.3.2 缺失值處理
13.3.3 數(shù)據(jù)轉(zhuǎn)換
13.4 項(xiàng)目實(shí)戰(zhàn)之特征提取
13.4.1 變量特征圖表
13.4.2 變量關(guān)聯(lián)性分析
13.5 項(xiàng)目實(shí)戰(zhàn)之建模訓(xùn)練
13.5.1 對(duì)訓(xùn)練數(shù)據(jù)集的劃分
13.5.2 采用不同算法的建模訓(xùn)練
13.5.3 參數(shù)調(diào)優(yōu)
13.6 預(yù)測(cè)與提交結(jié)果
13.7 小結(jié)