可解釋機(jī)器學(xué)習(xí):黑盒模型可解釋性理解指南(第2版)
定 價(jià):118 元
- 作者:(德)Christoph Molnar (克里斯托夫·莫爾納)
- 出版時(shí)間:2024/10/1
- ISBN:9787121490149
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP181-34
- 頁碼:272
- 紙張:
- 版次:01
- 開本:16開
機(jī)器學(xué)習(xí)雖然在改進(jìn)產(chǎn)品性能、產(chǎn)品流程和推進(jìn)研究方面有很大的潛力,但仍面臨一大障礙——計(jì)算機(jī)無法解釋其預(yù)測(cè)結(jié)果。因此,本書旨在闡明如何使機(jī)器學(xué)習(xí)模型及其決策具有可解釋性。本書探索了可解釋性的概念,介紹了許多簡(jiǎn)單的可解釋模型,包括決策樹、決策規(guī)則和線性回歸等。本書的重點(diǎn)是模型不可知方法,用于解釋黑盒模型(如特征重要性和累積局部效應(yīng)),以及用Shapley 值和局部代理模型解釋單個(gè)實(shí)例預(yù)測(cè)。此外,本書介紹了深度神經(jīng)網(wǎng)絡(luò)的可解釋性方法。本書深入解釋并批判性地討論所有的可解釋方法,如它們?cè)诤诤邢碌倪\(yùn)作機(jī)制,各自的優(yōu)缺點(diǎn),如何解釋它們的輸出結(jié)果。本書將幫助讀者選擇并正確應(yīng)用最適用于特定機(jī)器學(xué)習(xí)項(xiàng)目的解釋方法。本書適合機(jī)器學(xué)習(xí)從業(yè)者、數(shù)據(jù)科學(xué)家、統(tǒng)計(jì)學(xué)家及任何對(duì)機(jī)器學(xué)習(xí)模型可解釋性感興趣的讀者閱讀。
Christoph Molnar,可解釋機(jī)器學(xué)習(xí)研究員,目前在德國慕尼黑大學(xué)統(tǒng)計(jì)研究所攻讀博士學(xué)位,目標(biāo)是讓機(jī)器學(xué)習(xí)模型的決策更容易被人類理解。著作Interpretable Machine Learning 受到業(yè)界高度關(guān)注。
郭濤,主要從事人工智能、智能計(jì)算、概率與統(tǒng)計(jì)學(xué)、現(xiàn)代軟件工程等前沿交叉研究。出版多部譯作,包括《深度強(qiáng)化學(xué)習(xí)圖解》《機(jī)器學(xué)習(xí)圖解》《集成學(xué)習(xí)實(shí)戰(zhàn)》。
第1 章 引 言 1
1.1 故事時(shí)間 1
1.1.1 閃電不會(huì)擊中兩次 2
1.1.2 信任跌落 4
1.1.3 費(fèi)米回形針 5
1.2 什么是機(jī)器學(xué)習(xí) 7
1.3 術(shù)語 8
第2 章 可解釋性 11
2.1 可解釋性的重要性 11
2.2 可解釋性方法分類 16
2.3 可解釋性的范圍 17
2.3.1 算法透明度 17
2.3.2 全局、整體模型的可解釋性 18
2.3.3 模型層面的全局模型可解釋性 18
2.3.4 單個(gè)預(yù)測(cè)的局部可解釋性 19
2.3.5 一組預(yù)測(cè)的局部可解釋性 19
2.4 評(píng)估可解釋性 19
2.5 解釋的特性 20
2.6 人性化的解釋 22
2.6.1 什么是解釋 22
2.6.2 什么是好的解釋 23
第3 章 數(shù)據(jù)集 27
3.1 自行車租賃(回歸) 27
3.2 YouTube 垃圾評(píng)論(文本分類) 28
3.3 宮頸癌風(fēng)險(xiǎn)因素(分類) 29
第4 章 可解釋模型 30
4.1 線性回歸 31
4.1.1 解釋 32
4.1.2 示例 34
4.1.3 可視化解釋 35
4.1.4 解釋單個(gè)預(yù)測(cè) 37
4.1.5 分類特征編碼 38
4.1.6 線性模型能創(chuàng)造出好的解釋嗎 40
4.1.7 稀疏線性模型 40
4.1.8 優(yōu)點(diǎn) 43
4.1.9 缺點(diǎn) 43
4.2 邏輯回歸 43
4.2.1 線性回歸用于分類存在的問題 43
4.2.2 理論 45
4.2.3 解釋 46
4.2.4 示例 47
4.2.5 優(yōu)點(diǎn)和缺點(diǎn) 48
4.2.6 軟件 48
4.3 廣義線性模型、廣義加性模型及其他 49
4.3.1 非高斯結(jié)果——廣義線性模型 50
4.3.2 交互作用 54
4.3.3 非線性效應(yīng)——廣義加性模型 58
4.3.4 優(yōu)點(diǎn) 62
4.3.5 缺點(diǎn) 62
4.3.6 軟件 63
4.3.7 進(jìn)一步擴(kuò)展 63
4.4 決策樹 64
4.4.1 解釋 65
4.4.2 示例 66
4.4.3 優(yōu)點(diǎn) 67
4.4.4 缺點(diǎn) 68
4.4.5 軟件 69
4.5 決策規(guī)則 69
4.5.1 從單一特征學(xué)習(xí)規(guī)則 71
4.5.2 順序覆蓋 74
4.5.3 貝葉斯規(guī)則列表 77
4.5.4 優(yōu)點(diǎn) 82
4.5.5 缺點(diǎn) 83
4.5.6 軟件和替代方案 83
4.6 RuleFit 84
4.6.1 解釋和示例 84
4.6.2 理論 86
4.6.3 優(yōu)點(diǎn) 88
4.6.4 缺點(diǎn) 89
4.6.5 軟件和替代方案 89
4.7 其他可解釋模型 90
4.7.1 樸素貝葉斯分類器 90
4.7.2 k 近鄰法 90
第5 章 模型不可知方法 91
第6 章 基于樣本的解釋 93
第7 章 全局模型不可知方法 95
7.1 部分依賴圖 95
7.1.1 基于部分依賴圖的特征重要性 96
7.1.2 示例 97
7.1.3 優(yōu)點(diǎn) 99
7.1.4 缺點(diǎn) 99
7.1.5 軟件和替代方案 100
7.2 累積局部效應(yīng)圖 100
7.2.1 動(dòng)機(jī)和直覺 100
7.2.2 理論 103
7.2.3 估算 104
7.2.4 示例 107
7.2.5 優(yōu)點(diǎn) 114
7.2.6 缺點(diǎn) 115
7.2.7 軟件與替代方案 116
7.3 特征交互作用 116
7.3.1 特征交互概念 116
7.3.2 理論:弗里德曼的H 統(tǒng)計(jì)量 117
7.3.3 示例 119
7.3.4 優(yōu)點(diǎn) 121
7.3.5 缺點(diǎn) 121
7.3.6 實(shí)現(xiàn) 122
7.3.7 替代方案 122
7.4 函數(shù)分解 122
7.4.1 如何不計(jì)算分量I 124
7.4.2 函數(shù)分解 125
7.4.3 如何不計(jì)算分量II 125
7.4.4 函數(shù)ANOVA 126
7.4.5 依賴特征的廣義函數(shù)ANOVA 127
7.4.6 累積局部效應(yīng)圖 128
7.4.7 統(tǒng)計(jì)回歸模型 129
7.4.8 錦上添花:部分依賴圖 130
7.4.9 優(yōu)點(diǎn) 130
7.4.10 缺點(diǎn) 130
7.5 置換特征重要性 131
7.5.1 理論 131
7.5.2 應(yīng)該在訓(xùn)練數(shù)據(jù)還是測(cè)試數(shù)據(jù)上計(jì)算重要性 132
7.5.3 示例和解釋 134
7.5.4 優(yōu)點(diǎn) 135
7.5.5 缺點(diǎn) 136
7.5.6 替代方案 137
7.5.7 軟件 137
7.6 全局代理模型 138
7.6.1 理論 138
7.6.2 示例 139
7.6.3 優(yōu)點(diǎn) 140
7.6.4 缺點(diǎn) 141
7.6.5 軟件 141
7.7 原型和批評(píng) 141
7.7.1 理論 142
7.7.2 示例 146
7.7.3 優(yōu)點(diǎn) 146
7.7.4 缺點(diǎn) 147
7.7.5 軟件和替代方案 147
第8 章 局部模型不可知方法 148
8.1 個(gè)體條件期望 148
8.1.1 示例 149
8.1.2 優(yōu)點(diǎn) 152
8.1.3 缺點(diǎn) 152
8.1.4 軟件和替代方案 152
8.2 局部代理模型 152
8.2.1 表格數(shù)據(jù)的局部代理模型 154
8.2.2 文本的局部代理模型 156
8.2.3 圖像的局部代理模型 158
8.2.4 優(yōu)點(diǎn) 158
8.2.5 缺點(diǎn) 159
8.3 反事實(shí)解釋 160
8.3.1 生成反事實(shí)解釋 162
8.3.2 示例 166
8.3.3 優(yōu)點(diǎn) 167
8.3.4 缺點(diǎn) 168
8.3.5 軟件和替代方案 168
8.4 范圍規(guī)則(錨點(diǎn)) 169
8.4.1 尋找錨點(diǎn) 170
8.4.2 復(fù)雜性和運(yùn)行時(shí)間 172
8.4.3 表格數(shù)據(jù)示例 173
8.4.4 優(yōu)點(diǎn) 176
8.4.5 缺點(diǎn) 176
8.4.6 軟件和替代方案 176
8.5 Shapley 值 177
8.5.1 總體思路 177
8.5.2 示例和解釋 179
8.5.3 Shapley 值詳解 181
8.5.4 優(yōu)點(diǎn) 184
8.5.5 缺點(diǎn) 184
8.5.6 軟件和替代方案 186
8.6 SHAP 186
8.6.1 定義 186
8.6.2 KernelSHAP 188
8.6.3 TreeSHAP 190
8.6.4 示例 191
8.6.5 SHAP 特征重要性 192
8.6.6 SHAP 概要圖 193
8.6.7 SHAP 依賴關(guān)系圖 194
8.6.8 SHAP 交互作用值 195
8.6.9 聚類Shapley 值 196
8.6.10 優(yōu)點(diǎn) 196
8.6.11 缺點(diǎn) 197
8.6.12 軟件 197
第9 章 神經(jīng)網(wǎng)絡(luò)可解釋性 198
9.1 學(xué)習(xí)特征 198
9.1.1 特征可視化 199
9.1.2 網(wǎng)絡(luò)剖析 202
9.1.3 優(yōu)點(diǎn) 206
9.1.4 缺點(diǎn) 206
9.1.5 軟件和其他實(shí)現(xiàn) 207
9.2 像素歸因 207
9.2.1 Vanilla 梯度法(顯著性圖) 209
9.2.2 DeconvNet 210
9.2.3 Grad-CAM 210
9.2.4 Guided Grad-CAM 212
9.2.5 SmoothGrad 212
9.2.6 示例 213
9.2.7 優(yōu)點(diǎn) 214
9.2.8 缺點(diǎn) 214
9.2.9 軟件 215
9.3 檢測(cè)概念 215
9.3.1 TCAV:使用概念激活向量進(jìn)行測(cè)試 216
9.3.2 示例 217
9.3.3 優(yōu)點(diǎn) 218
9.3.4 缺點(diǎn) 219
9.3.5 其他基于概念的方法 219
9.3.6 軟件 220
9.4 對(duì)抗性示例 220
9.4.1 方法和示例 220
9.4.2 網(wǎng)絡(luò)安全視角 225
9.5 有影響實(shí)例 227
9.5.1 刪除診斷 229
9.5.2 影響函數(shù) 233
9.5.3 識(shí)別有影響實(shí)例的優(yōu)勢(shì) 237
9.5.4 識(shí)別有影響實(shí)例的缺點(diǎn) 238
9.5.5 軟件和替代方案 238
第10 章 透視水晶球 239
10.1 機(jī)器學(xué)習(xí)的未來 240
10.2 可解釋性的未來 241
參考文獻(xiàn) 244
致謝 251