數(shù)據(jù)挖掘?qū)д摚ㄓ⑽陌妗ぴ瓡?版)
定 價:199 元
叢書名:經(jīng)典原版書庫
- 作者:[美]陳封能(Pang-Ning Tan)邁克爾·斯坦巴赫
- 出版時間:2019/11/1
- ISBN:9787111637882
- 出 版 社:機械工業(yè)出版社
- 中圖法分類:TP274
- 頁碼:
- 紙張:膠版紙
- 版次:
- 開本:16開
本書從算法的角度介紹數(shù)據(jù)挖掘所使用的主要原理與技術(shù)。為了更好地理解數(shù)據(jù)挖掘技術(shù)如何用于各種類型的數(shù)據(jù),研究這些原理與技術(shù)是至關(guān)重要的。
本書所涵蓋的主題包括:數(shù)據(jù)預處理、預測建模、關(guān)聯(lián)分析、聚類分析、異常檢測和避免錯誤發(fā)現(xiàn)。通過介紹每個主題的基本概念和算法,為讀者提供將數(shù)據(jù)挖掘應用于實際問題所需的必要背景以及使用方法。
自12年前的第1版以來,數(shù)據(jù)分析領域發(fā)生了很大的變化。采集數(shù)據(jù)和用數(shù)據(jù)做決策的速率不斷提高,采集到的數(shù)據(jù)數(shù)量和種類也在不斷增加。事實上,“大數(shù)據(jù)”這個術(shù)語已被用于指代那些可獲得的海量、多樣的數(shù)據(jù)集。此外,“數(shù)據(jù)科學”這個術(shù)語也被用于描述一個新興領域,其中,數(shù)據(jù)挖掘、機器學習、統(tǒng)計學等諸多領域的工具和技術(shù),被用于從數(shù)據(jù)(通常是大數(shù)據(jù))中提取出可實際應用的見解。
數(shù)據(jù)的增長為數(shù)據(jù)分析的各領域創(chuàng)造了大量的機會。其中,有著廣泛應用的預測建模領域的發(fā)展最引人注目。例如,在神經(jīng)網(wǎng)絡(也稱為深度學習)方面取得的最新進展,已經(jīng)在許多具有挑戰(zhàn)性的領域(如圖像分類、語音識別以及文本分類和理解)表現(xiàn)出令人矚目的成果。即使那些發(fā)展不是特別顯著的領域(例如聚類、關(guān)聯(lián)分析和異常檢測等)也在不斷前進。這個新版本就是對這些發(fā)展的響應。
概述 與第1版相同,本書第2版全面介紹了數(shù)據(jù)挖掘,方便學生、教師、研究人員和專業(yè)人士理解有關(guān)概念和技術(shù)。本書涵蓋的主題包括:數(shù)據(jù)預處理、預測建模、關(guān)聯(lián)分析、聚類分析、異常檢測和避免錯誤發(fā)現(xiàn)。通過介紹每個主題的基本概念和算法,為讀者提供將數(shù)據(jù)挖掘應用于實際問題所需的必要背景。與第1版一樣,分類、關(guān)聯(lián)分析和聚類分析都分兩章講述。前面一章(介紹章)講述基本概念、代表性算法和評估技術(shù),后面一章(高級章)深入討論高級概念和算法。同第1版一樣,這樣做的目的是使讀者透徹地理解數(shù)據(jù)挖掘的基礎知識,同時論述更多重要的高級主題。由于這種安排,本書既可用作教材也可用作參考書。
為了幫助讀者更好地理解書中講述的概念,我們提供了大量的示例、圖表和習題,并在網(wǎng)上公開了原有習題的答案。除了第10章的新習題,其余習題與第1版的基本一致。教師可以通過網(wǎng)絡獲取各章的新習題及其答案。對更高級的主題、重要的歷史文獻和當前趨勢感興趣的讀者,可以在每一章結(jié)尾找到文獻注釋,本版對這部分內(nèi)容做了較大的更新。此外,還提供了一個覆蓋本書所有主題的索引。
第2版的新內(nèi)容 內(nèi)容上主要的更新是與分類相關(guān)的兩章內(nèi)容(第3章和第4章)。第3章仍使用決策樹分類器進行講解,但對適用于各種分類方法的主題討論進行了大量的擴充,這些主題包括:過擬合、欠擬合、訓練規(guī)模的影響、模型復雜度、模型選擇以及模型評估中常見的缺陷等。第4章的每一節(jié)幾乎都進行了重大更新,著重擴展了貝葉斯網(wǎng)絡、支持向量機和人工神經(jīng)網(wǎng)絡的內(nèi)容。對深度網(wǎng)絡,我們單獨增加了一節(jié)來介紹該領域當前的發(fā)展。我們還更新了4.11節(jié)“類不平衡問題”中有關(guān)評估方法的討論。
關(guān)聯(lián)分析內(nèi)容的改進則更具體。我們對關(guān)聯(lián)模式評估部分(第5章)以及序列和圖形挖掘部分(第6章)進行了全面修訂。對聚類分析的修訂也很具體。在聚類分析的介紹章(第7章)增添了K均值初始化技術(shù)并更新了簇評估的討論。聚類分析的高級章(第8章)新添了關(guān)于譜圖聚類的內(nèi)容。對異常檢測部分也進行了大量的修訂和擴展。我們保留并更新了現(xiàn)有方法,如統(tǒng)計學、基于最近鄰/密度方法和基于聚類方法,同時介紹了基于重構(gòu)的方法、單類分類和信息論方法;谥貥(gòu)的方法通過深度學習范疇中的自編碼網(wǎng)絡進行闡述。關(guān)于數(shù)據(jù)的第2章也進行了更新,更新內(nèi)容包括對互信息的討論和基于核技術(shù)的討論。
第10章討論了如何避免錯誤發(fā)現(xiàn)并產(chǎn)生正確的結(jié)果,這一章的內(nèi)容是全新的并且在當前關(guān)于數(shù)據(jù)挖掘的教科書中也是新穎的。該章討論了關(guān)于避免虛假結(jié)果的統(tǒng)計概念(統(tǒng)計顯著性、p值、錯誤發(fā)現(xiàn)率、置換檢驗等),這些是對其他章中相關(guān)內(nèi)容的補充,然后在介紹數(shù)據(jù)挖掘技術(shù)的內(nèi)容中對這些概念進行了闡述。這一章還強調(diào)了對數(shù)據(jù)分析結(jié)果的有效性和可重復性的關(guān)注。新增的最后一章,是認識到這個主題的重要性后的產(chǎn)物,同時也是對“在分析數(shù)據(jù)時需要對相關(guān)領域有更深入的理解”這一觀點的認可。
本版紙書刪除了數(shù)據(jù)探索章節(jié)以及附錄,但仍將其保留在網(wǎng)上。本版附錄對大數(shù)據(jù)環(huán)境下的可伸縮性進行了簡要討論。
致教師 作為一本教材,本書廣泛適用于高年級本科生和研究生教學。由于學習這門課程的學生背景不同,他們可能不具備廣博的統(tǒng)計學和數(shù)據(jù)庫知識,因此本書只要求最低限度的預備知識。數(shù)據(jù)庫知識不是必需的,但我們假定讀者有一定的統(tǒng)計學或數(shù)學背景,這些背景會讓他們更容易學習某些內(nèi)容。與以前一樣,本書或者更確切地說是討論主要數(shù)據(jù)挖掘主題的各章,都盡可能自成一體。因此,這些主題的講授次序相當靈活。其中第2章、第3章、第5章、第7章和第9章是核心內(nèi)容。對于第10章,建議至少給出粗略的介紹,以在學生解釋他們的數(shù)據(jù)分析結(jié)果時引起一些注意。盡管應先介紹數(shù)據(jù)(第2章),但可以按任意順序來講授基本分類(第3章)、關(guān)聯(lián)分析(第5章)和聚類分析(第7章)。由于異常檢測(第9章)與分類(第3章)和聚類分析(第7章)具備先后關(guān)系,所以后兩章應先于第9章進行講解。同時,可以根據(jù)時間安排和興趣,從高級分類、關(guān)聯(lián)分析和聚類分析章節(jié)(第4章、第6章、第8章)中選擇多種主題進行講解。我們還建議通過數(shù)據(jù)挖掘中的項目或?qū)嵺`練習來強化聽課效果,雖然它們要花費一些時間,但這種實踐作業(yè)可以大
陳封能(Pang-Ning Tan) 密歇根州立大學計算機科學與工程系教授,主要研究方向是數(shù)據(jù)挖掘、數(shù)據(jù)庫系統(tǒng)、網(wǎng)絡空間安全、網(wǎng)絡分析等。
第1章 緒論1
1.1 什么是數(shù)據(jù)挖掘4
1.2 數(shù)據(jù)挖掘要解決的問題5
1.3 數(shù)據(jù)挖掘的起源7
1.4 數(shù)據(jù)挖掘任務9
1.5 本書組織結(jié)構(gòu)13
1.6 文獻注釋15
1.7 習題21
第2章 數(shù)據(jù)23
2.1 數(shù)據(jù)類型26
2.1.1 屬性與度量27
2.1.2 數(shù)據(jù)集的類型34
2.2 數(shù)據(jù)質(zhì)量42
2.2.1 測量和數(shù)據(jù)收集問題42
2.2.2 關(guān)于應用的問題49
2.3 數(shù)據(jù)預處理50
2.3.1 聚集51
2.3.2 抽樣52
2.3.3 維歸約56
2.3.4 特征子集選擇58
2.3.5 特征創(chuàng)建61
2.3.6 離散化和二元化63
2.3.7 變量變換69
2.4 相似性和相異性的度量71
2.4.1 基礎72
2.4.2 簡單屬性之間的相似度和相異度74
2.4.3 數(shù)據(jù)對象之間的相異度76
2.4.4 數(shù)據(jù)對象之間的相似度78
2.4.5 鄰近度度量的例子79
2.4.6 互信息88
* 2.4.7 核函數(shù)90
* 2.4.8 Bregman散度94
2.4.9 鄰近度計算問題96
2.4.10 選擇正確的鄰近度度量98
2.5 文獻注釋100
2.6 習題105
第3章 分類:基本概念和技術(shù)113
3.1 基本概念114
3.2 一般的分類框架117
3.3 決策樹分類器119
3.3.1 構(gòu)建決策樹的基本算法121
3.3.2 表示屬性測試條件的方法124
3.3.3 選擇屬性測試條件的方法127
3.3.4 決策樹歸納算法136
3.3.5 示例:Web機器人檢測138
3.3.6 決策樹分類器的特征140
3.4 模型的過擬147
3.5 模型選擇156
3.5.1 驗證集應用156
3.5.2 模型復雜度合并157
3.5.3 統(tǒng)計范圍估計162
3.5.4 決策樹的模型選擇162
3.6 模型評估164
3.6.1 保持方法165
3.6.2 交叉驗證165
3.7 超參數(shù)的使用168
3.7.1 超參數(shù)選擇168
3.7.2 嵌套交叉驗證170
3.8 模型選擇和評估中的陷阱172
3.8.1 訓練集和測試集之間的重疊172
3.8.2 使用驗證錯誤率作為泛化錯誤率
*3.9 模型比較173
3.9.1 估計準確率的置信區(qū)間174
3.9.2 比較兩個模型的性能175
3.10 文獻注釋176
3.11 習題185
第4章 分類:其他技術(shù)193
4.1 分類器的種類193
4.2 基于規(guī)則的分類器195
4.2.1 基于規(guī)則的分類器原理197
4.2.2 規(guī)則集的屬性198
4.2.3 規(guī)則提取的直接方法199
4.2.4 規(guī)則提取的間接方法204
4.2.5 基于規(guī)則的分類器的特點206
4.3 最近鄰分類器208
4.3.1 算法209
4.3.2 最近鄰分類器的特點210
4.4 樸素貝葉斯分類器212
4.4.1 概率論基礎213
4.4.2 樸素貝葉斯假設218
4.5 貝葉斯網(wǎng)絡227
4.5.1 圖表示227
4.5.2 推理與學習233
4.5.3 貝葉斯網(wǎng)絡的特點242
4.6 logistic回歸243
4.6.1 logistic回歸用作廣義線性模型244
4.6.2 學習模型參數(shù)245
4.6.3 logistic回歸模型的特點248
4.7 人工神經(jīng)網(wǎng)絡249
4.7.1 感知機250
4.7.2 多層神經(jīng)網(wǎng)絡254
4.7.3 人工神經(jīng)網(wǎng)絡的特點261
4.8 深度學習262
4.8.1 使用協(xié)同損失函數(shù)263
4.8.2 使用響應激活函數(shù)266
4.8.3 正則化268
4.8.4 模型參數(shù)的初始化271
4.8.5 深度學習的特點275
4.9 支持向量機276
4.9.1 分離超平面的邊緣276
4.9.2 線性SVM278
4.9.3 軟邊緣SVM284
4.9.4 非線性SVM290
4.9.5 SVM的特點294
4.10 組合方法296
4.10.1 組合方法的基本原理297
4.10.2 構(gòu)建組合分類器的方法297
4.10.3 偏置–方差分解300
4.10.4 裝袋302
4.10.5 提升305
4.10.6 隨機森林310
4.10.7 組合方法的實驗比較312
4.11 類不平衡問題313
4.11.1 類不平衡的分類器構(gòu)建314
4.11.2 帶類不平衡的性能評估318
4.11.3 尋找最優(yōu)的評分閾值322
4.11.4 綜合評估性能323
4.12 多類問題330
4.13 文獻注釋333
4.14 習題345
第5章 關(guān)聯(lián)分析:基本概念和算法357
5.1 預備知識358
5.2 頻繁項集的產(chǎn)生362
5.2.1 先驗原理363
5.2.2 Apriori算法的頻繁項集產(chǎn)生364
5.2.3 候選項集的產(chǎn)生與剪枝368
5.2.4 支持度計數(shù)373
5.2.5 計算復雜度377
5.3 規(guī)則的產(chǎn)生380
5.3.1 基于置信度的剪枝380
5.3.2 Apriori算法中規(guī)則的產(chǎn)生381
5.3.3 示例:美國國會投票記錄382
5.4 頻繁項集的緊湊表示384
5.4.1 極大頻繁項集384
5.4.2 閉項集386
*5.5 其他產(chǎn)生頻繁項集的方法389
*5.6 FP增長算法393
5.6.1 FP樹表示法394
5.6.2 FP增長算法的頻繁項集產(chǎn)生397
5.7 關(guān)聯(lián)模式的評估401
5.7.1 興趣度的客觀度量402
5.7.2 多個二元變量的度量414
5.7.3 辛普森悖論416
5.8 傾斜支持度分布的影響418
5.9 文獻注釋424
5.10 習題438
第6章 關(guān)聯(lián)分析:高級概念451
6.1 處理分類屬性451
6.2 處理連續(xù)屬性454
6.2.1 基于離散化的方法454
6.2.2 基于統(tǒng)計學的方法458
6.2.3 非離散化方法460
6.3 處理概念分層462
6.4 序列模式464
6.4.1 預備知識465
6.4.2 序列模式發(fā)現(xiàn)468
* 6.4.3 時限約束473
* 6.4.4 可選計數(shù)方案477
6.5 子圖模式479
6.5.1 預備知識480
6.5.2 頻繁子圖挖掘483
6.5.3 候選生成487
6.5.4 候選剪枝493
6.5.5 支持度計數(shù)493
*6.6 非頻繁模式493
6.6.1 負模式494
6.6.2 負相關(guān)模式495
6.6.3 非頻繁模式、負模式和負相關(guān)模式比較496
6.6.4 挖掘有趣的非頻繁模式的技術(shù)498
6.6.5 基于挖掘負模式的技術(shù)499
6.6.6 基于支持度期望的技術(shù)501
6.7 文獻注釋505
6.8 習題510
第7章 聚類分析:基本概念和算法525
7.1 概述528
7.1.1 什么是聚類分析528
7.1.2 聚類的不同類型529
7.1.3 簇的不同類型531
7.2 K均值534
7.2.1 K均值算法535
7.2.2 K均值:附加的問題544
7.2.3 二分K均值547
7.2.4 K均值和不同的簇類型548
7.2.5 優(yōu)點與缺點549
7.2.6 K均值作為優(yōu)化問題549
7.3 凝聚層次聚類554
7.3.1 基本凝聚層次聚類算法555
7.3.2 特殊技術(shù)557
7.3.3 簇鄰近度的Lance-Williams公式562
7.3.4 層次聚類的主要問題563
7.3.5 離群點564
7.3.6 優(yōu)點與缺點565
7.4 DBSCAN565
7.4.1 傳統(tǒng)的密度:基于中心的方法565
7.4.2 DBSCAN算法567
7.4.3 優(yōu)點與缺點569
7.5 簇評估571
7.5.1 概述571
7.5.2 無監(jiān)督簇評估:使用凝聚度和分離度574
7.5.3 無監(jiān)督簇評估:使用鄰近度矩陣582
7.5.4 層次聚類的無監(jiān)督評估585
7.5.5 確定正確的簇個數(shù)587
7.5.6 聚類趨勢588
7.5.7 簇有效性的監(jiān)督度量589
7.5.8 評估簇有效性度量的顯著性594
7.5.9 簇有效性度量的選擇596
7.6 文獻注釋597
7.7 習題603
第8章 聚類分析:其他問題與算法613
8.1 數(shù)據(jù)、簇和聚類算法的特性614
8.1.1 示例:比較K均值和DBSCAN614
8.1.2 數(shù)據(jù)特性615
8.1.3 簇特性617
8.1.4 聚類算法的一般特性619
8.2 基于原型的聚類621
8.2.1 模糊聚類621
8.2.2 使用混合模型的聚類627
8.2.3 自組織映射637
8.3 基于密度的聚類644
8.3.1 基于網(wǎng)格的聚類644
8.3.2 子空間聚類648
8.3.3 DENCLUE:基于密度聚類的一種基于核的方案652
8.4 基于圖的聚類656
8.4.1 稀疏化657
8.4.2 最小生成樹聚類658
8.4.3 OPOSSUM:使用METIS的稀疏相似度最優(yōu)劃分659
8.4.4 Chameleon:使用動態(tài)建模的層次聚類660
8.4.5 譜聚類666
8.4.6 共享最近鄰相似度673
8.4.7 Jarvis-Patrick聚類算法676
8.4.8 SNN密度678
8.4.9 基于SNN密度的聚類679
8.5 可伸縮的聚類算法681
8.5.1 可伸縮:一般問題和方法681
8.5.2 BIRCH684
8.5.3 CURE686
8.6 使用哪種聚類算法690
8.7 文獻注釋693
8.8 習題699
第9章 異常檢測703
9.1 異常檢測問題的特性705
9.1.1 異常的定義705
9.1.2 數(shù)據(jù)的性質(zhì)706
9.1.3 如何使用異常檢測707
9.2 異常檢測方法的特性708
9.3 統(tǒng)計方法710
9.3.1 使用參數(shù)模型710
9.3.2 使用非參數(shù)模型714
9.3.3 對正常類和異常類建模715
9.3.4 評估統(tǒng)計意義717
9.3.5 優(yōu)點與缺點718
9.4 基于鄰近度的方法719
9.4.1 基于距離的異常分數(shù)719
9.4.2 基于密度的異常分數(shù)720
9.4.3 基于相對密度的異常分數(shù)722
9.4.4 優(yōu)點與缺點723
9.5 基于聚類的方法724
9.5.1 發(fā)現(xiàn)異常簇724
9.5.2 發(fā)現(xiàn)異常實例725
9.5.3 優(yōu)點與缺點728
9.6 基于重構(gòu)的方法728
9.7 單類分類732
9.7.1 核函數(shù)的使用733
9.7.2 原點技巧734
9.7.3 優(yōu)點與缺點738
9.8 信息論方法738
9.9 異常檢測評估740
9.10 文獻注釋742
9.11 習題749
第10章 避免錯誤發(fā)現(xiàn)755
10.1 預備知識:統(tǒng)計檢驗756
10.1.1 顯著性檢驗756
10.1.2 假設檢驗761
10.1.3 多重假設檢驗767
10.1.4 統(tǒng)計檢驗中的陷阱776
10.2 對零分布和替代分布建模778
10.2.1 生成合成數(shù)據(jù)集781
10.2.2 隨機化類標782
10.2.3 實例重采樣782
10.2.4 對檢驗統(tǒng)計量的分布建模783
10.3 分類問題的統(tǒng)計檢驗783
10.3.1 評估分類性能783
10.3.2 以多重假設檢 驗處理二分類問題785
10.3.3 模型選擇中的多重假設檢驗786
10.4 關(guān)聯(lián)分析的統(tǒng)計檢驗787
10.4.1 使用統(tǒng)計模型788
10.4.2 使用隨機化方法794
10.5 聚類分析的統(tǒng)計檢驗795
10.5.1 為內(nèi)部指標生成零分布796
10.5.2 為外部指標生成零分布798
10.5.3 富集798
10.6 異常檢測的統(tǒng)計檢驗800
10.7 文獻注釋803
10.8 習題808
Contents
1 Introduction1
1.1 What Is Data Mining?4
1.2 Motivating Challenges5
1.3 The Origins of Data Mining7
1.4 Data Mining Tasks9
1.5 Scope and Organization of the Book13
1.6 Bibliographic Notes15
1.7 Exercises21
2 Data23
2.1 Types of Data26
2.1.1 Attributes and Measurement27
2.1.2 Types of Data Sets34
2.2 Data Quality42
2.2.1 Measurement and Data Collection Issues42
2.2.2 Issues Related to Applications49
2.3 Data Preprocessing50
2.3.1 Aggregation51
2.3.2 Sampling52
2.3.3 Dimensionality Reduction56