目錄
第1章數(shù)學(xué)基礎(chǔ)
1.1數(shù)據(jù)表示標(biāo)量、向量、矩陣和張量
1.1.1標(biāo)量、向量、矩陣和張量
1.1.2向量的范數(shù)
1.1.3常用的向量
1.1.4常見(jiàn)的矩陣
1.1.5矩陣的操作
1.1.6張量的常用操作
1.2優(yōu)化的基礎(chǔ)導(dǎo)數(shù)及其應(yīng)用
1.2.1導(dǎo)數(shù)
1.2.2泰勒公式
1.2.3拉格朗日乘數(shù)法
1.3概率模型的基礎(chǔ)概率論
1.3.1隨機(jī)變量
1.3.2概率分布
1.3.3邊緣概率
1.3.4條件概率
1.3.5獨(dú)立性
1.3.6期望、方差與協(xié)方差
1.3.7常用的概率分布
1.4習(xí)題
第2章Python入門
2.1Python簡(jiǎn)介
2.2Python基礎(chǔ)語(yǔ)法
2.2.1數(shù)據(jù)結(jié)構(gòu)類型
2.2.2運(yùn)算符
2.2.3條件語(yǔ)句
2.2.4循環(huán)語(yǔ)句
2.2.5函數(shù)
2.2.6面向?qū)ο笈c類
2.2.7腳本
2.3NumPy
2.3.1NumPy數(shù)組創(chuàng)建與訪問(wèn)
2.3.2NumPy數(shù)組計(jì)算
2.3.3廣播
2.4Matplotlib
2.4.1Matplotlib的安裝
2.4.2Matplotlib圖像的組成部分
2.4.3Pyplot繪制簡(jiǎn)單圖形
2.4.4Matplotlib多圖像繪制
2.5實(shí)踐: 豆瓣高分電影爬取
2.5.1思路分析
2.5.2獲取頁(yè)面
2.5.3解析頁(yè)面
2.5.4存儲(chǔ)數(shù)據(jù)
2.5.5數(shù)據(jù)展示與分析
2.6習(xí)題
第3章機(jī)器學(xué)習(xí)基礎(chǔ)
3.1機(jī)器學(xué)習(xí)概述
3.1.1機(jī)器學(xué)習(xí)定義與基本術(shù)語(yǔ)
3.1.2機(jī)器學(xué)習(xí)的三要素
3.1.3機(jī)器學(xué)習(xí)方法概述
3.2數(shù)據(jù)預(yù)處理
3.2.1數(shù)據(jù)清洗
3.2.2數(shù)據(jù)集拆分
3.2.3數(shù)據(jù)集不平衡
3.3特征工程
3.3.1特征編碼
3.3.2特征選擇與特征降維
3.3.3特征標(biāo)準(zhǔn)化
3.4模型評(píng)估
3.5實(shí)踐: 鳶尾花分類
3.5.1數(shù)據(jù)準(zhǔn)備
3.5.2配置模型
3.5.3模型訓(xùn)練
3.5.4數(shù)據(jù)可視化
3.6習(xí)題
第4章深度學(xué)習(xí)基礎(chǔ)
4.1深度學(xué)習(xí)發(fā)展歷程
4.2感知機(jī)
4.2.1感知機(jī)的起源
4.2.2感知機(jī)的局限性
4.3前饋神經(jīng)網(wǎng)絡(luò)
4.3.1神經(jīng)元
4.3.2網(wǎng)絡(luò)結(jié)構(gòu)
4.3.3訓(xùn)練與預(yù)測(cè)
4.3.4反向傳播算法
4.4提升神經(jīng)網(wǎng)絡(luò)訓(xùn)練的技巧
4.4.1參數(shù)更新方法
4.4.2數(shù)據(jù)預(yù)處理
4.4.3參數(shù)的初始化
4.4.4正則化
4.5深度學(xué)習(xí)框架
4.5.1深度學(xué)習(xí)框架的作用
4.5.2常見(jiàn)深度學(xué)習(xí)框架
4.5.3飛槳概述
4.6實(shí)踐: 手寫數(shù)字識(shí)別
4.6.1數(shù)據(jù)準(zhǔn)備
4.6.2網(wǎng)絡(luò)結(jié)構(gòu)定義
4.6.3網(wǎng)絡(luò)訓(xùn)練
4.6.4網(wǎng)絡(luò)預(yù)測(cè)
4.7習(xí)題
第5章卷積神經(jīng)網(wǎng)絡(luò)
5.1概述
5.2整體結(jié)構(gòu)
5.3卷積層
5.3.1全連接層的問(wèn)題
5.3.2卷積運(yùn)算
5.3.3卷積的導(dǎo)數(shù)
5.3.4卷積層操作
5.3.5矩陣快速卷積
5.4池化層
5.5歸一化層
5.6參數(shù)學(xué)習(xí)
5.7典型卷積神經(jīng)網(wǎng)絡(luò)
5.7.1LeNet
5.7.2AlexNet
5.7.3VGGNet
5.7.4Inception
5.7.5ResNet
5.7.6DenseNet
5.7.7MobileNet
5.7.8ShuffleNet
5.8實(shí)踐: 貓狗識(shí)別
5.8.1數(shù)據(jù)準(zhǔn)備
5.8.2網(wǎng)絡(luò)配置
5.8.3網(wǎng)絡(luò)訓(xùn)練
5.8.4網(wǎng)絡(luò)預(yù)測(cè)
5.9習(xí)題
第6章循環(huán)神經(jīng)網(wǎng)絡(luò)
6.1循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
6.1.1循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與計(jì)算能力
6.1.2參數(shù)學(xué)習(xí)
6.1.3循環(huán)神經(jīng)網(wǎng)絡(luò)變種結(jié)構(gòu)
6.1.4深度循環(huán)神經(jīng)網(wǎng)絡(luò)
6.1.5遞歸神經(jīng)網(wǎng)絡(luò)
6.2長(zhǎng)期依賴和門控RNN
6.2.1長(zhǎng)期依賴的挑戰(zhàn)
6.2.2循環(huán)神經(jīng)網(wǎng)絡(luò)的長(zhǎng)期依賴問(wèn)題
6.2.3門控RNN
6.2.4優(yōu)化長(zhǎng)期依賴
6.3雙向RNN
6.4序列到序列架構(gòu)
6.4.1Seq2Seq
6.4.2注意力機(jī)制
6.5實(shí)踐: 電影評(píng)論情感分析
6.5.1數(shù)據(jù)準(zhǔn)備
6.5.2網(wǎng)絡(luò)結(jié)構(gòu)定義
6.5.3網(wǎng)絡(luò)訓(xùn)練
6.5.4網(wǎng)絡(luò)預(yù)測(cè)
6.6習(xí)題
第7章深度學(xué)習(xí)進(jìn)階
7.1深度生成模型
7.1.1變分自編碼器
7.1.2生成對(duì)抗網(wǎng)絡(luò)
7.2深度強(qiáng)化學(xué)習(xí)
7.2.1強(qiáng)化學(xué)習(xí)模型
7.2.2強(qiáng)化學(xué)習(xí)分類
7.2.3深度強(qiáng)化學(xué)習(xí)
7.2.4深度Q網(wǎng)絡(luò)
7.2.5深度強(qiáng)化學(xué)習(xí)應(yīng)用
7.3遷移學(xué)習(xí)
7.3.1遷移學(xué)習(xí)的定義與分類
7.3.2遷移學(xué)習(xí)的基本方法
7.4實(shí)踐: 生成對(duì)抗網(wǎng)絡(luò)
7.4.1數(shù)據(jù)準(zhǔn)備
7.4.2網(wǎng)絡(luò)配置
7.4.3模型訓(xùn)練與預(yù)測(cè)
7.5習(xí)題
第8章深度學(xué)習(xí)應(yīng)用: 計(jì)算機(jī)視覺(jué)
8.1目標(biāo)檢測(cè)
8.1.1傳統(tǒng)目標(biāo)檢測(cè)
8.1.2基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)
8.1.3基于回歸的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)
8.2語(yǔ)義分割
8.2.1傳統(tǒng)語(yǔ)義分割方法
8.2.2基于卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)義分割
8.3實(shí)踐: 目標(biāo)檢測(cè)
8.3.1數(shù)據(jù)準(zhǔn)備
8.3.2網(wǎng)絡(luò)配置
8.3.3模型訓(xùn)練
8.3.4模型預(yù)測(cè)
8.4習(xí)題
第9章深度學(xué)習(xí)應(yīng)用: 自然語(yǔ)言處理
9.1自然語(yǔ)言處理的基本過(guò)程
9.1.1獲取語(yǔ)料
9.1.2語(yǔ)料預(yù)處理
9.1.3特征工程
9.2自然語(yǔ)言處理應(yīng)用
9.2.1文本分類
9.2.2機(jī)器翻譯
9.2.3自動(dòng)問(wèn)答
9.3實(shí)踐: 機(jī)器翻譯
9.3.1數(shù)據(jù)準(zhǔn)備
9.3.2網(wǎng)絡(luò)結(jié)構(gòu)定義
9.3.3網(wǎng)絡(luò)訓(xùn)練
9.3.4網(wǎng)絡(luò)預(yù)測(cè)
9.4習(xí)題
參考文獻(xiàn)