機器學(xué)習(xí)的數(shù)學(xué)
定 價:109 元
當(dāng)前圖書已被 54 所學(xué)校薦購過!
查看明細(xì)
- 作者:雷明著
- 出版時間:2021/1/1
- ISBN:9787115542939
- 出 版 社:人民郵電出版社
- 中圖法分類:TP181
- 頁碼:404
- 紙張:膠版紙
- 版次:1
- 開本:16K
本書的目標(biāo)是幫助讀者全面、系統(tǒng)地學(xué)習(xí)機器學(xué)習(xí)所必須的數(shù)學(xué)知識。全書由8章組成,力求精準(zhǔn)、小地覆蓋機器學(xué)數(shù)學(xué)知識。包括微積分,線性代數(shù)與矩陣論,**化方法,概率論,信息論,隨機過程,以及圖論。本書從機器學(xué)角度講授這些數(shù)學(xué)知識,對它們在該領(lǐng)域的應(yīng)用舉例說明,使讀者對某些抽象的數(shù)學(xué)知識和理論的實際應(yīng)用有直觀、具體的認(rèn)識。
本書內(nèi)容緊湊,結(jié)構(gòu)清晰,深入淺出,講解詳細(xì)?捎米饔嬎銠C、人工智能、電子工程、自動化、數(shù)學(xué)等相關(guān)專業(yè)的教材與教學(xué)參考書。對人工智能領(lǐng)域的工程技術(shù)人員與產(chǎn)品研發(fā)人員,本書也有很強的參考價值。對于廣大數(shù)學(xué)與應(yīng)用的數(shù)學(xué)愛好者,本書亦為適合自學(xué)的讀本。
·上海交通大學(xué)特別研究員、、百度算法專家、優(yōu)酷首席科學(xué)家、谷歌機器學(xué)習(xí)開發(fā)者專家力薦教材
·透徹地理解機器學(xué)習(xí)算法,從數(shù)學(xué)層面搞懂這些核心算法原理的邏輯,具備推導(dǎo)和證明算法的能力
·在解決人工智能工程實踐的問題中,能夠用數(shù)學(xué)知識進行分析和建模
·精準(zhǔn)覆蓋人工智能領(lǐng)域中機器學(xué)習(xí)、深度學(xué)習(xí)、強化學(xué)習(xí)相關(guān)的數(shù)學(xué)知識
·從機器學(xué)習(xí)應(yīng)用的角度講授數(shù)學(xué),讓數(shù)學(xué)在機器學(xué)習(xí)中的應(yīng)用無縫銜接
·涵蓋概率論、信息論、優(yōu)化方法等機器學(xué)習(xí)中的目標(biāo)函數(shù)構(gòu)造、模型優(yōu)化以及各種機器學(xué)習(xí)算法的核心知識
·囊括了微積分和線性代數(shù)等
雷明,人工智能學(xué)習(xí)與實踐平臺SIGAI的創(chuàng)始人;2009年畢業(yè)于清華大學(xué)計算機系,獲碩士學(xué)位,研究方向為機器視覺與機器學(xué)習(xí);畢業(yè)后曾就職于百度公司,任不錯軟件工程師、項目經(jīng)理。2012年加入zrnodo(深圳市智美達科技股份有限公司),任CTO與平臺研發(fā)中心負(fù)責(zé)人;2018年2月創(chuàng)立SIGAI,其核心產(chǎn)品為云端實驗室與知識庫,為人工智能學(xué)習(xí)與實踐提供便捷的一站式服務(wù):在機器學(xué)習(xí)與深度學(xué)習(xí)、機器視覺、自然語言處理方向有扎實的理論功底與豐富的學(xué)術(shù)和產(chǎn)品研發(fā)經(jīng)驗,碩士期間曾發(fā)表論文數(shù)篇。
●章一元函數(shù)微積分1
1.1極限與連續(xù)
1.1.1可數(shù)集與不可數(shù)集
1.1.2數(shù)列的極限
1.1.3函數(shù)的極限
1.1.4函數(shù)的連續(xù)性與間斷點
1.1.5上確界與下確界
1.1.6李普希茨連續(xù)性
1.1.7無窮小量
1.2導(dǎo)數(shù)與微分
1.2.1一階導(dǎo)數(shù)
1.2.2機器學(xué)習(xí)中的常用函數(shù)
1.2.3高階導(dǎo)數(shù)
1.2.4微分
1.2.5導(dǎo)數(shù)與函數(shù)的單調(diào)性
1.2.6極值判別法則
1.2.7導(dǎo)數(shù)與函數(shù)的凹凸性
1.3微分中值定理
1.3.1羅爾中值定理
1.3.2拉格朗日中值定理
1.3.3柯西中值定理
1.4泰勒公式
1.5不定積分
1.5.1不定積分的定義與性質(zhì)
1.5.2換元積分法
1.5.3分部積分法
1.6定積分
1.6.1定積分的定義與性質(zhì)
1.6.2牛頓-萊布尼茨公式
1.6.3定積分的計算
1.6.4變上限積分
1.6.5定積分的應(yīng)用
1.6.6廣義積分
1.7常微分方程
1.7.1基本概念
1.7.2一階線性微分方程
第2章線性代數(shù)與矩陣論
2.1向量及其運算
2.1.1基本概念
2.1.2基本運算
2.1.3向量的范數(shù)
2.1.4解析幾何
2.1.5線性相關(guān)性
2.1.6向量空間
2.1.7應(yīng)用——線性回歸
2.1.8應(yīng)用——線性分類器與支持向量機
2.2矩陣及其運算
2.2.1基本概念
2.2.2基本運算
2.2.3逆矩陣
2.2.4矩陣的范數(shù)
2.2.5應(yīng)用——人工神經(jīng)網(wǎng)絡(luò)
2.2.6線性變換
2.3行列式
2.3.1行列式的定義與性質(zhì)
2.3.2計算方法
2.4線性方程組
2.4.1高斯消元法
2.4.2齊次方程組
2.4.3非齊次方程組
2.5特征值與特征向量
2.5.1特征值與特征向量
2.5.2相似變換
2.5.3正交變換
2.5.4QR算法
2.5.5廣義特征值
2.5.6瑞利商
2.5.7譜范數(shù)與特征值的關(guān)系
2.5.8條件數(shù)
2.5.9應(yīng)用——譜歸一化與譜正則化
2.6二次型
2.6.1基本概念
2.6.2正定二次型與正定矩陣
2.6.3標(biāo)準(zhǔn)型
2.7矩陣分解
2.7.1楚列斯基分解
2.7.2QR分解
2.7.3特征值分解
2.7.4奇異值分解
第3章多元函數(shù)微積分
3.1偏導(dǎo)數(shù)
3.1.1一階偏導(dǎo)數(shù)
3.1.2高階偏導(dǎo)數(shù)
3.1.3全微分
3.1.4鏈?zhǔn)椒▌t
3.2梯度與方向?qū)?shù)
3.2.1梯度
3.2.2方向?qū)?shù)
3.2.3應(yīng)用——邊緣檢測與HOG特征
3.3黑塞矩陣
3.3.1黑塞矩陣的定義與性質(zhì)
3.3.2凹凸性
3.3.3極值判別法則
3.3.4應(yīng)用——小二乘法
3.4雅可比矩陣
3.4.1雅可比矩陣的定義和性質(zhì)
3.4.2鏈?zhǔn)椒▌t的矩陣形式
3.5向量與矩陣求導(dǎo)
3.5.1常用求導(dǎo)公式
3.5.2應(yīng)用——反向傳播算法
3.6微分算法
3.6.1符號微分
3.6.2數(shù)值微分
3.6.3自動微分
3.7泰勒公式
3.8多重積分
3.8.1二重積分
3.8.2三重積分
3.8.3n重積分
3.9無窮級數(shù)
3.9.1常數(shù)項級數(shù)
3.9.2函數(shù)項級數(shù)
第4章優(yōu)化方法
4.1基本概念
4.1.1問題定義
4.1.2迭代法的基本思想
4.2一階優(yōu)化算法
4.2.1梯度下降法
4.2.2速下降法
4.2.3梯度下降法的改進
4.2.4隨機梯度下降法
4.2.5應(yīng)用——人工神經(jīng)網(wǎng)絡(luò)
4.3二階優(yōu)化算法
4.3.1牛頓法
4.3.2擬牛頓法
4.4分治法
4.4.1坐標(biāo)下降法
4.4.2SMO算法
4.4.3分階段優(yōu)化
4.4.4應(yīng)用——logistic回歸
4.5凸優(yōu)化問題
4.5.1數(shù)值優(yōu)化算法面臨的問題
4.5.2凸集
4.5.3凸優(yōu)化問題及其性質(zhì)
4.5.4機器學(xué)習(xí)中的凸優(yōu)化問題
4.6帶約束的優(yōu)化問題
4.6.1拉格朗日乘數(shù)法
4.6.2應(yīng)用——線性判別分析
4.6.3拉格朗日對偶
4.6.4KKT條件
4.6.5應(yīng)用——支持向量機
4.7多目標(biāo)優(yōu)化問題
4.7.1基本概念
4.7.2求解算法
4.7.3應(yīng)用——多目標(biāo)神經(jīng)結(jié)構(gòu)搜索
4.8泛函極值與變分法
4.8.1泛函與變分
4.8.2歐拉—拉格朗日方程
4.8.3應(yīng)用——證明兩點之間直線短
4.9目標(biāo)函數(shù)的構(gòu)造
4.9.1有監(jiān)督學(xué)習(xí)
4.9.2無監(jiān)督學(xué)習(xí)
4.9.3強化學(xué)習(xí)
第5章概率論
5.1隨機事件與概率
5.1.1隨機事件概率
5.1.2條件概率
5.1.3全概率公式
5.1.4貝葉斯公式
5.1.5條件獨立
5.2隨機變量
5.2.1離散型隨機變量
5.2.2連續(xù)型隨機變量
5.2.3數(shù)學(xué)期望
5.2.4方差與標(biāo)準(zhǔn)差
5.2.5Jensen不等式
5.3常用概率分布
5.3.1均勻分布
5.3.2伯努利分布
5.3.3二項分布
5.3.4多項分布
5.3.5幾何分布
5.3.6正態(tài)分布
5.3.7t分布
5.3.8應(yīng)用——顏色直方圖
5.3.9應(yīng)用——貝葉斯分類器
5.4分布變換
5.4.1隨機變量函數(shù)
5.4.2逆變換采樣算法
5.5隨機向量
5.5.1離散型隨機向量
5.5.2連續(xù)型隨機向量
5.5.3數(shù)學(xué)期望
5.5.4協(xié)方差
5.5.5常用概率分布
5.5.6分布變換
5.5.7應(yīng)用——高斯混合模型
5.6極限定理
5.6.1切比雪夫不等式
5.6.2大數(shù)定律
5.6.3中心極限定理
5.7參數(shù)估計
5.7.1大似然估計
5.7.2大后驗概率估計
5.7.3貝葉斯估計
5.7.4核密度估計
5.7.5應(yīng)用——logistic回歸
5.7.6應(yīng)用——EM算法
5.7.7應(yīng)用——MeanShift算法
5.8隨機算法
5.8.1基本隨機數(shù)生成算法
5.8.2遺傳算法
5.8.3蒙特卡洛算法
5.9采樣算法
5.9.1拒絕采樣
5.9.2重要性采樣
第6章信息論
6.1熵與聯(lián)合熵
6.1.1信息量與熵
6.1.2熵的性質(zhì)
6.1.3應(yīng)用——決策樹
6.1.4聯(lián)合熵
6.2交熵
6.2.1交熵的定義
6.2.2交熵的性質(zhì)
6.2.3應(yīng)用——softmax回歸
6.3Kullback-Leibler散度
6.3.1KL散度的定義
6.3.2KL散度的性質(zhì)
6.3.3與交熵的關(guān)系
6.3.4應(yīng)用——流形降維
6.3.5應(yīng)用——變分推斷
6.4Jensen-Shannon散度
6.4.1JS散度的定義
6.4.2JS散度的性質(zhì)
6.4.3應(yīng)用——生成對抗網(wǎng)絡(luò)
6.5互信息
6.5.1互信息的定義
6.5.2互信息的性質(zhì)
6.5.3與熵的關(guān)系
6.5.4應(yīng)用——特征選擇
6.6條件熵
6.6.1條件熵定義
6.6.2條件熵的性質(zhì)
6.6.3與熵以及互信息的關(guān)系
6.7總結(jié)
第7章隨機過程
7.1馬爾可夫過程
7.1.1馬爾可夫性
7.1.2馬爾可夫鏈的基本概念
7.1.3狀態(tài)的性質(zhì)與分類
7.1.4平穩(wěn)分布與極限分布
7.1.5細(xì)致平衡條件
7.1.6應(yīng)用——隱馬爾可夫模型
7.1.7應(yīng)用——強化學(xué)習(xí)
7.2馬爾可夫鏈采樣算法
7.2.1基本馬爾可夫鏈采樣
7.2.2MCMC采樣算法
7.2.3Metropolis-Hastings算法
7.2.4Gibbs算法
7.3高斯過程
7.3.1高斯過程性質(zhì)
7.3.2高斯過程回歸
7.3.3應(yīng)用——貝葉斯優(yōu)化
第8章圖論
8.1圖的基本概念
8.1.1基本概念
8.1.2應(yīng)用——計算圖與自動微分
8.1.3應(yīng)用——概率圖模型
8.1.4鄰接矩陣與加權(quán)度矩陣
8.1.5應(yīng)用——樣本集的相似度圖
8.2若干特殊的圖
8.2.1聯(lián)通圖
8.2.2二部圖
8.2.3應(yīng)用——受限玻爾茲曼機
8.2.4有向無環(huán)圖
8.2.5應(yīng)用——神經(jīng)結(jié)構(gòu)搜索
8.3重要的算法
8.3.1遍歷算法
8.3.2短路徑算法
8.3.3拓?fù)渑判蛩惴?br />
8.4譜圖理論
8.4.1拉普拉斯矩陣
8.4.2歸一化拉普拉斯矩陣
8.4.3應(yīng)用——流形降維