本書重點研究機器學習的數(shù)學理論。第壹部分探討了在非凸優(yōu)化問題中,選擇梯度下降步長來避免嚴格鞍點的*優(yōu)性和自適應性。在第二部分中,作者提出了在非凸優(yōu)化中尋找局部極小值的算法,并利用牛頓第二定律在一定程度上得到無摩擦的全局極小值。第三部分研究了含有噪聲和缺失數(shù)據(jù)的子空間聚類問題,這是一個由隨機高斯噪聲的實際應用數(shù)據(jù)和/或含有均勻缺失項的不完全數(shù)據(jù)激發(fā)的問題。*后,提出了一種新的具有粘性網(wǎng)正則化的VAR模型及其等價貝葉斯模型,該模型既考慮了穩(wěn)定的稀疏性,又考慮了群體選擇。
譯者序
序言
致謝
前言
作者簡介
第一部分 引言
第1章 緒論
1.1 神經(jīng)網(wǎng)絡
1.2 深度學習
1.3 梯度下降法
1.4 小結(jié)
1.5 本書結(jié)構(gòu)
第2章 通用數(shù)學框架
2.1 機器學習與計算統(tǒng)計學
2.2 小結(jié)
第3章 優(yōu)化理論簡述
3.1 機器學習所需的優(yōu)化理論
3.2 在線算法:機器學習的順序更新
3.3 小結(jié)
第4章 改進的CoCoSSC方法
4.1 問題描述
4.2 梯度加速下降法
4.3 CoCoSSC方法
4.4 在線時變粘性網(wǎng)算法
4.5 小結(jié)
第5章 關(guān)鍵術(shù)語
5.1 一些定義
5.2 小結(jié)
第6章 關(guān)于非凸規(guī)劃幾何的相關(guān)研究
6.1 多元時間序列數(shù)據(jù)集
6.2 粒子學習
6.3 在氣候變化中的應用
6.4 小結(jié)
第二部分 機器學習的數(shù)學框架:理論部分
第7章 收斂到最小值的梯度下降法:最優(yōu)和自適應的步長規(guī)則
7.1 引言
7.2 符號與預備知識
7.3 最大允許步長
7.4 自適應步長規(guī)則
7.5 定理7.1的證明
7.6 定理7.2的證明
7.7 輔助定理
7.8 技術(shù)證明
7.9 小結(jié)
第8章 基于優(yōu)化的守恒定律方法
8.1 準備:直觀的解析演示
8.2 辛方法與算法
8.3 局部高速收斂現(xiàn)象的漸近分析
8.4 實驗演示
8.5 小結(jié)與展望
第三部分 機器學習的數(shù)學框架:應用部分
第9章 含有噪聲和缺失觀測值的稀疏子空間聚類的樣本復雜度的改進
9.1 CoCoSSC算法的主要結(jié)果
9.2 證明
9.3 數(shù)值結(jié)果
9.4 技術(shù)細節(jié)
9.5 小結(jié)
第10章 多元時間序列中穩(wěn)定和分組因果關(guān)系的在線發(fā)現(xiàn)
10.1 問題表述
10.2 粘性網(wǎng)正則化
10.3 在線推理
10.4 實驗驗證
10.5 小結(jié)與展望
第11章 后記
參考文獻