本書所涵蓋的主題包括:數(shù)據(jù)預處理、預測建模、關聯(lián)分析、聚類分析、異常檢測和避免錯誤發(fā)現(xiàn)。通過介紹每個主題的基本概念和算法,為讀者提供將數(shù)據(jù)挖掘應用于實際問題所需的必要背景。
自12年前的第1版以來,數(shù)據(jù)分析領域發(fā)生了很大的變化。采集數(shù)據(jù)和用數(shù)據(jù)做決策的速率不斷提高,采集到的數(shù)據(jù)數(shù)量和種類也在不斷增加。事實上,大數(shù)據(jù)這個術語已被用于指代那些可獲得的海量、多樣的數(shù)據(jù)集。此外,數(shù)據(jù)科學這個術語也被用于描述一個新興領域,其中,數(shù)據(jù)挖掘、機器學習、統(tǒng)計學等諸多領域的工具和技術,被用于從數(shù)據(jù)(通常是大數(shù)據(jù))中提取出可實際應用的見解。
數(shù)據(jù)的增長為數(shù)據(jù)分析的各領域創(chuàng)造了大量的機會。其中,有著廣泛應用的預測建模領域的發(fā)展最引人注目。例如,在神經(jīng)網(wǎng)絡(也稱為深度學習)方面取得的最新進展,已經(jīng)在許多具有挑戰(zhàn)性的領域(如圖像分類、語音識別以及文本分類和理解)表現(xiàn)出令人矚目的成果。即使那些發(fā)展不是特別顯著的領域(例如聚類、關聯(lián)分析和異常檢測等)也在不斷前進。這個新版本就是對這些發(fā)展的響應。
概述 與第1版相同,本書第2版全面介紹了數(shù)據(jù)挖掘,方便學生、教師、研究人員和專業(yè)人士理解有關概念和技術。本書涵蓋的主題包括:數(shù)據(jù)預處理、預測建模、關聯(lián)分析、聚類分析、異常檢測和避免錯誤發(fā)現(xiàn)。通過介紹每個主題的基本概念和算法,為讀者提供將數(shù)據(jù)挖掘應用于實際問題所需的必要背景。與第1版一樣,分類、關聯(lián)分析和聚類分析都分兩章講述。前面一章(介紹章)講述基本概念、代表性算法和評估技術,后面一章(高級章)深入討論高級概念和算法。同第1版一樣,這樣做的目的是使讀者透徹地理解數(shù)據(jù)挖掘的基礎知識,同時論述更多重要的高級主題。由于這種安排,本書既可用作教材也可用作參考書。
為了幫助讀者更好地理解書中講述的概念,我們提供了大量的示例、圖表和習題,并在網(wǎng)上公開了原有習題的答案。除了第10章的新習題,其余習題與第1版的基本一致。教師可以通過網(wǎng)絡獲取各章的新習題及其答案。對更高級的主題、重要的歷史文獻和當前趨勢感興趣的讀者,可以在每一章結尾找到文獻注釋,本版對這部分內容做了較大的更新。此外,還提供了一個覆蓋本書所有主題的索引。
第2版的新內容 內容上主要的更新是與分類相關的兩章內容(第3章和第4章)。第3章仍使用決策樹分類器進行講解,但對適用于各種分類方法的主題討論進行了大量的擴充,這些主題包括:過擬合、欠擬合、訓練規(guī)模的影響、模型復雜度、模型選擇以及模型評估中常見的缺陷等。第4章的每一節(jié)幾乎都進行了重大更新,著重擴展了貝葉斯網(wǎng)絡、支持向量機和人工神經(jīng)網(wǎng)絡的內容。對深度網(wǎng)絡,我們單獨增加了一節(jié)來介紹該領域當前的發(fā)展。我們還更新了4.11節(jié)類不平衡問題中有關評估方法的討論。
關聯(lián)分析內容的改進則更具體。我們對關聯(lián)模式評估部分(第5章)以及序列和圖形挖掘部分(第6章)進行了全面修訂。對聚類分析的修訂也很具體。在聚類分析的介紹章(第7章)增添了K均值初始化技術并更新了簇評估的討論。聚類分析的高級章(第8章)新添了關于譜圖聚類的內容。對異常檢測部分也進行了大量的修訂和擴展。我們保留并更新了現(xiàn)有方法,如統(tǒng)計學、基于最近鄰/密度方法和基于聚類方法,同時介紹了基于重構的方法、單類分類和信息論方法;谥貥嫷姆椒ㄍㄟ^深度學習范疇中的自編碼網(wǎng)絡進行闡述。關于數(shù)據(jù)的第2章也進行了更新,更新內容包括對互信息的討論和基于核技術的討論。
第10章討論了如何避免錯誤發(fā)現(xiàn)并產(chǎn)生正確的結果,這一章的內容是全新的并且在當前關于數(shù)據(jù)挖掘的教科書中也是新穎的。該章討論了關于避免虛假結果的統(tǒng)計概念(統(tǒng)計顯著性、p值、錯誤發(fā)現(xiàn)率、置換檢驗等),這些是對其他章中相關內容的補充,然后在介紹數(shù)據(jù)挖掘技術的內容中對這些概念進行了闡述。這一章還強調了對數(shù)據(jù)分析結果的有效性和可重復性的關注。新增的最后一章,是認識到這個主題的重要性后的產(chǎn)物,同時也是對在分析數(shù)據(jù)時需要對相關領域有更深入的理解這一觀點的認可。
本版紙書刪除了數(shù)據(jù)探索章節(jié)以及附錄,但仍將其保留在網(wǎng)上。本版附錄對大數(shù)據(jù)環(huán)境下的可伸縮性進行了簡要討論。
致教師 作為一本教材,本書廣泛適用于高年級本科生和研究生教學。由于學習這門課程的學生背景不同,他們可能不具備廣博的統(tǒng)計學和數(shù)據(jù)庫知識,因此本書只要求最低限度的預備知識。數(shù)據(jù)庫知識不是必需的,但我們假定讀者有一定的統(tǒng)計學或數(shù)學背景,這些背景會讓他們更容易學習某些內容。與以前一樣,本書或者更確切地說是討論主要數(shù)據(jù)挖掘主題的各章,都盡可能自成一體。因此,這些主題的講授次序相當靈活。其中第2章、第3章、第5章、第7章和第9章是核心內容。對于第10章,建議至少給出粗略的介紹,以在學生解釋他們的數(shù)據(jù)分析結果時引起一些注意。盡管應先介紹數(shù)據(jù)(第2章),但可以按任意順序來講授基本分類(第3章)、關聯(lián)分析(第5章)和聚類分析(第7章)。由于異常檢測(第9章)與分類(第3章)和聚類分析(第7章)具備先后關系,所以后兩章應先于第9章進行講解。同時,可以根據(jù)時間安排和興趣,從高級分類、關聯(lián)分析和聚類分析章節(jié)(第4章、第6章、第8章)中選擇多種主題進行講解。我們還建議通過數(shù)據(jù)挖掘中的項目或實踐練習來強化聽課效果,雖然它們要花費一些時間,但這種實踐作業(yè)可以大
出版者的話
譯者序
前言
第1章 緒論1
1.1 什么是數(shù)據(jù)挖掘2
1.2 數(shù)據(jù)挖掘要解決的問題3
1.3 數(shù)據(jù)挖掘的起源4
1.4 數(shù)據(jù)挖掘任務5
1.5 本書組織結構7
文獻注釋8
參考文獻10
習題12
第2章 數(shù)據(jù)14
2.1 數(shù)據(jù)類型15
2.1.1 屬性與度量16
2.1.2 數(shù)據(jù)集的類型19
2.2 數(shù)據(jù)質量24
2.2.1 測量和數(shù)據(jù)收集問題24
2.2.2 關于應用的問題27
2.3 數(shù)據(jù)預處理28
2.3.1 聚集28
2.3.2 抽樣30
2.3.3 維歸約31
2.3.4 特征子集選擇32
2.3.5 特征創(chuàng)建34
2.3.6 離散化和二元化35
2.3.7 變量變換38
2.4 相似性和相異性的度量40
2.4.1 基礎40
2.4.2 簡單屬性之間的相似度和相異度41
2.4.3 數(shù)據(jù)對象之間的相異度42
2.4.4 數(shù)據(jù)對象之間的相似度44
2.4.5 鄰近度度量的例子44
2.4.6 互信息50
* 2.4.7 核函數(shù)51
* 2.4.8 Bregman散度53
2.4.9 鄰近度計算問題54
2.4.10 選擇正確的鄰近度度量56
文獻注釋56
參考文獻58
習題60
第3章 分類:基本概念和技術65
3.1 基本概念65
3.2 一般的分類框架67
3.3 決策樹分類器69
3.3.1 構建決策樹的基本算法70
3.3.2 表示屬性測試條件的方法71
3.3.3 選擇屬性測試條件的方法73
3.3.4 決策樹歸納算法79
3.3.5 示例:Web機器人檢測79
3.3.6 決策樹分類器的特征81
3.4 模型的過擬合85
3.5 模型選擇90
3.5.1 驗證集應用90
3.5.2 模型復雜度合并91
3.5.3 統(tǒng)計范圍估計93
3.5.4 決策樹的模型選擇94
3.6 模型評估95
3.6.1 保持方法95
3.6.2 交叉驗證96
3.7 超參數(shù)的使用97
3.7.1 超參數(shù)選擇98
3.7.2 嵌套交叉驗證98
3.8 模型選擇和評估中的陷阱99
3.8.1 訓練集和測試集之間的重疊99
3.8.2 使用驗證錯誤率作為泛化錯誤率100
* 3.9 模型比較100
3.9.1 估計準確率的置信區(qū)間100
3.9.2 比較兩個模型的性能101
文獻注釋102
參考文獻105
習題108
第4章 分類:其他技術114
4.1 分類器的種類114
4.2 基于規(guī)則的分類器115
4.2.1 基于規(guī)則的分類器原理116
4.2.2 規(guī)則集的屬性116
4.2.3 規(guī)則提取的直接方法117
4.2.4 規(guī)則提取的間接方法120
4.2.5 基于規(guī)則的分類器的特點121
4.3 最近鄰分類器122
4.3.1 算法123
4.3.2 最近鄰分類器的特點124
4.4 樸素貝葉斯分類器124
4.4.1 概率論基礎125
4.4.2 樸素貝葉斯假設127
4.5 貝葉斯網(wǎng)絡132
4.5.1 圖表示132
4.5.2 推理與學習135
4.5.3 貝葉斯網(wǎng)絡的特點139
4.6 logistic回歸140
4.6.1 logistic回歸用作廣義線性模型141
4.6.2 學習模型參數(shù)141
4.6.3 logistic回歸模型的特點142
4.7 人工神經(jīng)網(wǎng)絡143
4.7.1 感知機144
4.7.2 多層神經(jīng)網(wǎng)絡146
4.7.3 人工神經(jīng)網(wǎng)絡的特點150
4.8 深度學習151
4.8.1 使用協(xié)同損失函數(shù)151
4.8.2 使用響應激活函數(shù)153
4.8.3 正則化154
4.8.4 模型參數(shù)的初始化155
4.8.5 深度學習的特點157
4.9 支持向量機158
4.9.1 分離超平面的邊緣158
4.9.2 線性SVM159
4.9.3 軟邊緣SVM162
4.9.4 非線性SVM165
4.9.5 SVM的特點167
4.10 組合方法168
4.10.1 組合方法的基本原理168
4.10.2 構建組合分類器的方法169
4.10.3 偏置方差分解170
4.10.4 裝袋171
4.10.5 提升173
4.10.6 隨機森林176
4.10.7 組合方法的實驗比較177
4.11 類不平衡問題178
4.11.1 類不平衡的分類器構建179
4.11.2 帶類不平衡的性能評估180
4.11.3 尋找最優(yōu)的評分閾值183
4.11.4 綜合評估性能183
4.12 多類問題188
文獻注釋189
參考文獻193
習題198
第5章 關聯(lián)分析:基本概念和算法205
5.1 預備知識205
5.2 頻繁項集的產(chǎn)生207
5.2.1 先驗原理209
5.2.2 Apriori算法的頻繁項集產(chǎn)生210
5.2.3 候選項集的產(chǎn)生與剪枝212
5.2.4 支持度計數(shù)215
5.2.5 計算復雜度217
5.3 規(guī)則的產(chǎn)生219
5.3.1 基于置信度的剪枝219
5.3.2 Apriori算法中規(guī)則的產(chǎn)生219
5.3.3 示例:美國國會投票記錄221
5.4 頻繁項集的緊湊表示221
5.4.1 極大頻繁項集221
5.4.2 閉項集223
* 5.5 其他產(chǎn)生頻繁項集的方法225
* 5.6 FP增長算法228
5.6.1 FP樹表示法228
5.6.2 FP增長算法的頻繁項集產(chǎn)生229
5.7 關聯(lián)模式的評估231
5.7.1 興趣度的客觀度量232
5.7.2 多個二元變量的度量239
5.7.3 辛普森悖論240
5.8 傾斜支持度分布的影響241
文獻注釋244
參考文獻248
習題256
第6章 關聯(lián)分析:高級概念263
6.1 處理