2017年,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,要求中小學(xué)開設(shè)人工智能相關(guān)課程,并提倡以計算思維為指導(dǎo),將信息技術(shù)課程從技術(shù)導(dǎo)向轉(zhuǎn)換為科學(xué)導(dǎo)向。因此,機器學(xué)習(xí)作為人工智能技術(shù)的內(nèi)核,走入我國廣大中小學(xué)生的課堂是科技發(fā)展的必然選擇!禕R》 本書共11章,系統(tǒng)地介紹機器學(xué)習(xí)模型中常見的白盒和黑盒模型,以及這些模型統(tǒng)一的框架和經(jīng)常被使用的技巧。本書介紹了這些技巧是如何被巧妙地封裝成一種通用方法,并在適當(dāng)?shù)臅r候被反復(fù)使用。從框架到思路,再到解決問題的技巧,以及技巧的封裝和重用,這些都是塑造良好計算思維的必經(jīng)之路。
更多科學(xué)出版社服務(wù),請掃碼獲取。
目錄
第1章 人工智能與計算思維 1
1.1 人工智能 1
1.2 機器學(xué)習(xí) 2
1.3 機器學(xué)習(xí)中的計算思維 6
1.4 本章小結(jié) 7
課后練習(xí) 7
第2章 機器學(xué)習(xí)理論基礎(chǔ) 8
2.1 數(shù)據(jù)集 8
2.1.1 描述空間、屬性、特征和維度 8
2.1.2 復(fù)合特征 9
2.1.3 特征空間降維 10
2.1.4 特征縮放及特征編碼 11
2.2 機器學(xué)習(xí)中對誤差的估計 12
2.3 代價函數(shù)、損失函數(shù)和目標(biāo)函數(shù) 14
2.4 數(shù)據(jù)預(yù)處理 14
2.5 Python中機器學(xué)習(xí)基本流程 15
2.6 sklearn的安裝 17
2.7 本章小結(jié) 19
課后練習(xí) 19
第3章 線性回歸模型 20
3.1 什么是線性回歸模型 20
3.2 簡單線性回歸模型 21
3.2.1 模型建立 21
3.2.2 不插電模擬模型訓(xùn)練 22
3.2.3 sklearn中使用簡單線性回歸模型 23
3.2.4 模型性能評價 24
3.3 多元線性回歸模型 26
3.3.1 模型建立 26
3.3.2 不插電使用梯度下降法求解系數(shù) 28
3.3.3 sklearn中使用多元線性回歸模型 30
3.4 多項式回歸 32
3.5 學(xué)習(xí)曲線 34
3.6 線性回歸模型中的計算思維 37
課后練習(xí) 38
第4章 邏輯回歸模型 40
4.1 Sigmoid函數(shù) 40
4.2 邏輯回歸的基本模型 40
4.3 邏輯回歸模型的代價函數(shù) 41
4.4 在sklearn中使用邏輯回歸模型進(jìn)行二元分類 42
4.5 廣義線性回歸模型的防止過擬合策略 43
4.5.1 正則式 43
4.5.2 在sklearn中使用L1和L2范數(shù)優(yōu)化模型 44
4.6 邏輯回歸中的計算思維 46
課后練習(xí) 47
第5章 KNN分類和回歸 48
5.1 KNN算法的模型 48
5.2 不插電使用KNN模型進(jìn)行分類 48
5.3 不插電使用KNN回歸模型 50
5.4 F1分?jǐn)?shù) 52
5.5 KNN中的特征標(biāo)準(zhǔn)化 56
5.6 KNN模型的計算思維 58
課后練習(xí) 59
第6章 樸素貝葉斯 60
6.1 貝葉斯公式 60
6.2 樸素貝葉斯模型 61
6.2.1 樸素貝葉斯模型的基本原理 61
6.2.2 不插電運用樸素貝葉斯公式進(jìn)行分類預(yù)測 62
6.3 高斯樸素貝葉斯(Gaussian NB) 63
6.3.1 高斯樸素貝葉斯的原理 63
6.3.2 不插電運用高斯樸素貝葉斯 65
6.4 sklearn中的樸素貝葉斯模型 67
6.5 在sklearn中使用NB模型 68
6.6 ROC曲線和AUC面積 70
6.7 樸素貝葉斯模型與計算思維 73
課后練習(xí) 73
第7章 決策樹和隨機森林 75
7.1 決策樹的表達(dá)方式 75
7.2 訓(xùn)練決策樹的算法 76
7.2.1 ID3算法的基本原理 76
7.2.2 不插電使用ID3算法構(gòu)建決策樹 76
7.2.3 C4.5算法 81
7.2.4 CART算法 82
7.3 sklearn中使用DecisionTreeClassifier和DecisionTreeRegression工具 83
7.3.1 sklearn中使用DecisionTreeClassifier 83
7.3.2 sklearn中使用DecisionTreeRegressor 84
7.4 隨機森林和集成學(xué)習(xí) 86
7.4.1 隨機森林 86
7.4.2 推進(jìn)法(boosting) 87
7.4.3 不插電應(yīng)用AdaBoost 88
7.5 決策樹中的計算思維 90
課后練習(xí) 91
第8章 感知器和人工神經(jīng)網(wǎng)絡(luò)ANN 92
8.1 感知器 92
8.1.1 感知器的基本原理 92
8.1.2 不插電訓(xùn)練單層感知器 94
8.2 多層感知器(MLP) 96
8.2.1 多層感知器的基本原理 96
8.2.2 不插電運用兩層感知器解決XOR(異或)問題 97
8.3 反傳多層感知器 99
8.3.1 ANN的激勵函數(shù) 99
8.3.2 ANN的網(wǎng)絡(luò)結(jié)構(gòu)和節(jié)點構(gòu)成 100
8.3.3 ANN中的反傳學(xué)習(xí)算法(BP) 100
8.3.4 BP的不插電示例 104
8.4 使用sklearn的ANN工具 107
8.5 人工神經(jīng)網(wǎng)絡(luò)的計算思維 107
課后練習(xí) 109
第9章 支持向量機 111
9.1 支持向量機SVM的基本原理 111
9.1.1 SVM中用于分類的超平面 111
9.1.2 SVM的目標(biāo)函數(shù) 113
9.1.3 SVM的目標(biāo)函數(shù)求解 114
9.2 單層感知器的對偶形式 114
9.3 SVM的核函數(shù) 117
9.4 sklearn中使用SVM工具分類 118
課后練習(xí) 120
第10章 聚類 121
10.1 聚類算法的原理 121
10.2 K均值(K-means)聚類算法 122
10.2.1 K均值算法基本原理 122
10.2.2 利用K均值算法進(jìn)行不插電聚類 122
10.2.3 K值的選擇 126
10.3 模糊C均值(FCM)聚類算法 126
10.4 輪廓系數(shù) 128
10.5 使用sklearn的K均值算法對數(shù)據(jù)進(jìn)行聚類 129
10.6 聚類模型與計算思維 131
課后練習(xí) 131
第11章 主成分分析(PCA)降維 132
11.1 PCA的基本思想 132
11.2 協(xié)方差矩陣 133
11.3 PCA算法的實現(xiàn) 135
11.4 PCA降維算法的一個實例 136
11.5 調(diào)用sklearn的PCA模型來驗證上述算法 138
11.6 PCA降維的計算思維 140
課后練習(xí) 140
部分課后習(xí)題答案 141
第3章 課后練習(xí)答案 141
第5章 課后練習(xí)答案 144
第6章 課后練習(xí)答案 146
第7章 課后練習(xí)答案 147
第8章 課后練習(xí)答案 148
第9章 課后練習(xí)答案 150
第10章 課后練習(xí)答案 151
第11章 課后練習(xí)答案 151
參考文獻(xiàn) 153