TensorFlow深度學(xué)習(xí)從入門到進(jìn)階
定 價(jià):109 元
- 作者:張德豐
- 出版時(shí)間:2020/5/1
- ISBN:9787111652632
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類:TP18
- 頁(yè)碼:384
- 紙張:
- 版次:
- 開本:16開
《TensorFlow深度學(xué)習(xí)從入門到進(jìn)階》以TensorFlow為主線進(jìn)行講解,書中每章節(jié)都以理論引出,以TensorFlow應(yīng)用鞏固結(jié)束,理論與實(shí)踐相結(jié)合,讓讀者快速掌握TensorFlow機(jī)器學(xué)習(xí)!禩ensorFlow深度學(xué)習(xí)從入門到進(jìn)階》共11章,主要包括TensorFlow與深度網(wǎng)絡(luò)、TensorFlow編程基礎(chǔ)、TensorFlow編程進(jìn)階、線性回歸、邏輯回歸、聚類分析、神經(jīng)網(wǎng)絡(luò)算法、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、其他網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)綜合實(shí)戰(zhàn)等內(nèi)容。
《TensorFlow深度學(xué)習(xí)從入門到進(jìn)階》適合TensorFlow初學(xué)者閱讀,也適合研究TensorFlow的廣大科研人員、學(xué)者、工程技術(shù)人員學(xué)習(xí)參考。
前言
第1章 TensorFlow與深度學(xué)習(xí)
1.1 深度學(xué)習(xí)的由來(lái)
1.2 語(yǔ)言與系統(tǒng)的支持
1.3 TensorFlow的特點(diǎn)
1.4 核心組件
1.5 TensorFlow的主要依賴包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建環(huán)境
1.6.1 安裝環(huán)境
1.6.2 安裝TensorFlow
1.6.3 安裝測(cè)試
1.7 Geany
1.8 揭開深度學(xué)習(xí)的面紗
1.8.1 人工智能、機(jī)器學(xué)習(xí)與深度學(xué)習(xí)
1.8.2 深度學(xué)習(xí)的核心思想
1.8.3 深度學(xué)習(xí)的應(yīng)用
1.9 深度學(xué)習(xí)的優(yōu)劣勢(shì)
第2章 TensorFlow編程基礎(chǔ)
2.1 張量
2.1.1 張量的概念
2.1.2 張量的使用
2.1.3 Numpy庫(kù)
2.1.4 張量的階
2.1.5 張量的形狀
2.1.6 張量應(yīng)用實(shí)例
2.2 圖的實(shí)現(xiàn)
2.3 會(huì)話的實(shí)現(xiàn)
2.4 認(rèn)識(shí)變量
2.4.1 變量的創(chuàng)建
2.4.2 變量的初始化
2.4.3 變量的更新
2.4.4 變量的保存
2.4.5 變量的加載
2.4.6 共享變量和變量命名空間
2.5 矩陣的操作
2.5.1 矩陣的生成
2.5.2 矩陣的變換
2.6 TensorFlow數(shù)據(jù)讀取的方式
2.7 從磁盤讀取信息
2.7.1 列表格式
2.7.2 讀取圖像數(shù)據(jù)
第3章 TensorFlow編程進(jìn)階
3.1 隊(duì)列與線程
3.1.1 隊(duì)列
3.1.2 隊(duì)列管理器
3.1.3 線程協(xié)調(diào)器
3.1.4 組合使用
3.2 TensorFlow嵌入Layer
3.3 生成隨機(jī)圖片數(shù)據(jù)
3.4 神經(jīng)網(wǎng)絡(luò)
3.4.1 神經(jīng)元
3.4.2 簡(jiǎn)單神經(jīng)結(jié)構(gòu)
3.4.3 深度神經(jīng)網(wǎng)絡(luò)
3.5 損失函數(shù)
3.6 梯度下降
3.6.1 標(biāo)準(zhǔn)梯度法
3.6.2 批量梯度下降法
3.6.3 隨機(jī)梯度下降法
3.6.4 小批量梯度下降法
3.6.5 線性模型的局限性
3.6.6 直線與曲線的擬合演示
3.7 反向傳播
3.7.1 求導(dǎo)鏈?zhǔn)椒▌t
3.7.2 反向傳播算法思路
3.7.3 反向傳播算法的計(jì)算過(guò)程
3.7.4 反向傳播演示回歸與二分類算法
3.8 隨機(jī)訓(xùn)練與批量訓(xùn)練
3.9 創(chuàng)建分類器
3.10 模型評(píng)估
3.11 優(yōu)化函數(shù)
3.11.1 隨機(jī)梯度下降優(yōu)化算法
3.11.2 基于動(dòng)量的優(yōu)化算法
3.11.3 Adagrad優(yōu)化算法
3.11.4 Adadelta優(yōu)化算法
3.11.5 Adam優(yōu)化算法
3.11.6 實(shí)例演示幾種優(yōu)化算法
第4章 TensorFlow實(shí)現(xiàn)線性回歸
4.1 矩陣操作實(shí)現(xiàn)線性回歸問(wèn)題
4.1.1 逆矩陣解決線性回歸問(wèn)題
4.1.2 矩陣分解法實(shí)現(xiàn)線性回歸
4.1.3 正則法對(duì)iris數(shù)據(jù)實(shí)現(xiàn)回歸分析
4.2 損失函數(shù)對(duì)iris數(shù)據(jù)實(shí)現(xiàn)回歸分析
4.3 戴明算法對(duì)iris數(shù)據(jù)實(shí)現(xiàn)回歸分析
4.4 嶺回歸與Lasso回歸對(duì)iris數(shù)據(jù)實(shí)現(xiàn)回歸分析
4.5 彈性網(wǎng)絡(luò)算法對(duì)iris數(shù)據(jù)實(shí)現(xiàn)回歸分析
第5章 TensorFlow實(shí)現(xiàn)邏輯回歸
5.1 什么是邏輯回歸
5.1.1 邏輯回歸與線性回歸的關(guān)系
5.1.2 邏輯回歸模型的代價(jià)函數(shù)
5.1.3 邏輯回歸的預(yù)測(cè)函數(shù)
5.1.4 判定邊界
5.1.5 隨機(jī)梯度下降算法實(shí)現(xiàn)邏輯回歸
5.2 逆函數(shù)及其實(shí)現(xiàn)
5.2.1 逆函數(shù)的相關(guān)函數(shù)
5.2.2 逆函數(shù)的實(shí)現(xiàn)
5.3 Softmax回歸
5.3.1 Softmax回歸簡(jiǎn)介
5.3.2 Softmax的代價(jià)函數(shù)
5.3.3 Softmax回歸的求解
5.3.4 Softmax回歸的參數(shù)特點(diǎn)
5.3.5 Softmax與邏輯回歸的關(guān)系
5.3.6 多分類算法和二分類算法的選擇
5.3.7 計(jì)算機(jī)視覺(jué)領(lǐng)域?qū)嵗?br>
第6章 TensorFlow實(shí)現(xiàn)聚類分析
6.1 支持向量機(jī)及實(shí)現(xiàn)
6.1.1 重新審視邏輯回歸
6.1.2 形式化表示
6.1.3 函數(shù)間隔和幾何間隔
6.1.4 最優(yōu)間隔分類器
6.1.5 支持向量機(jī)對(duì)iris數(shù)據(jù)進(jìn)行分類
6.1.6 核函數(shù)對(duì)數(shù)據(jù)點(diǎn)進(jìn)行預(yù)測(cè)
6.1.7 非線性支持向量機(jī)創(chuàng)建山鳶尾花分類器
6.1.8 多類支持向量機(jī)對(duì)iris數(shù)據(jù)進(jìn)行預(yù)測(cè)
6.2 K-均值聚類法及實(shí)現(xiàn)
6.2.1 K-均值聚類相關(guān)概念
6.2.2 K-均值聚類法對(duì)iris數(shù)據(jù)進(jìn)行聚類
6.3 最近鄰算法及實(shí)現(xiàn)
6.3.1 最近鄰算法概述
6.3.2 最近鄰算法求解文本距離
6.3.3 最近鄰算法實(shí)現(xiàn)地址匹配
第7章 神經(jīng)網(wǎng)絡(luò)算法
7.1 反向網(wǎng)絡(luò)
7.1.1 問(wèn)題設(shè)置
7.1.2 反向網(wǎng)絡(luò)算法
7.1.3 自動(dòng)微分
7.1.4 對(duì)隨機(jī)數(shù)進(jìn)行反向網(wǎng)絡(luò)演示
7.2 激勵(lì)函數(shù)及實(shí)現(xiàn)
7.2.1 激勵(lì)函數(shù)的用途
7.2.2 幾種激勵(lì)函數(shù)
7.2.3 幾種激勵(lì)函數(shù)的繪圖
7.3 門函數(shù)及其實(shí)現(xiàn)
7.4 單層神經(jīng)網(wǎng)絡(luò)對(duì)iris數(shù)據(jù)進(jìn)行訓(xùn)練
7.5 單個(gè)神經(jīng)元的擴(kuò)展及實(shí)現(xiàn)
7.6 構(gòu)建多層神經(jīng)網(wǎng)絡(luò)
7.7 實(shí)現(xiàn)井字棋
第8章 TensorFlow實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)
8.1 全連接網(wǎng)絡(luò)的局限性
8.2 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
8.2.1 卷積層
8.2.2 池化層
8.2.3 全連接層
8.3 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
8.3.1 求導(dǎo)的鏈?zhǔn)椒▌t
8.3.2 卷積層反向傳播
8.4 卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)
8.4.1 識(shí)別0和1數(shù)字
8.4.2 預(yù)測(cè)MNIST數(shù)字
8.5 幾種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)及實(shí)現(xiàn)
8.5.1 AlexNet網(wǎng)絡(luò)及實(shí)現(xiàn)
8.5.2 VGGNet網(wǎng)絡(luò)及實(shí)現(xiàn)
8.5.3 Inception Net網(wǎng)絡(luò)及實(shí)現(xiàn)
8.5.4 RestNet網(wǎng)絡(luò)及實(shí)現(xiàn)
第9章 TensorFlow實(shí)現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)
9.1 循環(huán)神經(jīng)網(wǎng)絡(luò)概述
9.1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的原理
9.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用
9.1.3 損失函數(shù)
9.1.4 梯度求解
9.1.5 實(shí)現(xiàn)二進(jìn)制數(shù)加法運(yùn)算
9.1.6 實(shí)現(xiàn)擬合回聲信號(hào)序列
9.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
9.3 循環(huán)神經(jīng)網(wǎng)絡(luò)的改進(jìn)
9.3.1 循環(huán)神經(jīng)網(wǎng)絡(luò)存在的問(wèn)題
9.3.2 LSTM網(wǎng)絡(luò)
9.3.3 LSTM核心思想
9.3.4 LSTM詳解與實(shí)現(xiàn)
9.3.5 窺視孔連接
9.3.6 GRU網(wǎng)絡(luò)對(duì)MNIST數(shù)據(jù)集分類
9.3.7 BRNN網(wǎng)絡(luò)對(duì)MNIST數(shù)據(jù)集分類
9.3.8 CTC實(shí)現(xiàn)端到端訓(xùn)練的語(yǔ)音識(shí)別模型
第10章 TensorFlow其他網(wǎng)絡(luò)
10.1 自編碼網(wǎng)絡(luò)及實(shí)現(xiàn)
10.1.1 自編碼網(wǎng)絡(luò)的結(jié)構(gòu)
10.1.2 自編碼網(wǎng)絡(luò)的代碼實(shí)現(xiàn)
10.2 降噪自編碼器及實(shí)現(xiàn)
10.2.1 降噪自編碼器的原理
10.2.2 降噪自編碼器的實(shí)現(xiàn)
10.3 棧式自編碼器及實(shí)現(xiàn)
10.3.1 棧式自編碼器概述
10.3.2 棧式自編碼器訓(xùn)練
10.3.3 棧式自編碼器進(jìn)行MNIST手寫數(shù)字分類
10.3.4 代替和級(jí)聯(lián)
10.3.5 自編碼器的應(yīng)用場(chǎng)合
10.3.6 自編碼器的綜合實(shí)現(xiàn)
10.4 變分自編碼器及實(shí)現(xiàn)
10.4.1 變分自編碼器的原理
10.4.2 損失函數(shù)
10.4.3 變分自編碼器模擬生成MNIST數(shù)據(jù)
10.5 條件變分自編碼器及實(shí)現(xiàn)
10.5.1 條件變分自編碼器概述
10.5.2 條件變分自編碼器生成MNIST數(shù)據(jù)
10.6 對(duì)抗神經(jīng)網(wǎng)絡(luò)
10.6.1 對(duì)抗神經(jīng)網(wǎng)絡(luò)的原理
10.6.2 生成模型的應(yīng)用
10.6.3 對(duì)抗神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法
10.7 DCGAN網(wǎng)絡(luò)及實(shí)現(xiàn)
10.7.1 DCGAN網(wǎng)絡(luò)概述
10.7.2 DCGAN網(wǎng)絡(luò)模擬MNIST數(shù)據(jù)
10.8 InfoGAN網(wǎng)絡(luò)及實(shí)現(xiàn)
10.8.1 什么是互信息
10.8.2 互信息的下界
10.8.3 InfoGAN生成MNIST模擬數(shù)據(jù)
10.9 AEGAN網(wǎng)絡(luò)及實(shí)現(xiàn)
10.9.1 AEGAN網(wǎng)絡(luò)概述
10.9.2 AEGAN對(duì)MNIST數(shù)據(jù)集壓縮及重建
10.10 WGAN-GP網(wǎng)絡(luò)
10.10.1 WGAN網(wǎng)絡(luò)
10.10.2 WGAN-GP網(wǎng)絡(luò)生成MNIST數(shù)據(jù)集
第11章 TensorFlow機(jī)器學(xué)習(xí)綜合實(shí)戰(zhàn)
11.1 房屋價(jià)格的預(yù)測(cè)
11.1.1 K近鄰算法預(yù)測(cè)房屋價(jià)格
11.1.2 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)房屋價(jià)格
11.1.3 深度神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)房屋價(jià)格
11.2 卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)人臉識(shí)別
11.3 腎癌的轉(zhuǎn)移判斷
11.4 比特幣的預(yù)測(cè)
參考文獻(xiàn)