本書(shū)主要對(duì)算法的原理進(jìn)行了介紹,并融合大量的應(yīng)用案例,詳細(xì)介紹使用機(jī)器學(xué)習(xí)模型的一般方法,幫助讀者理解算法原理,學(xué)會(huì)模型設(shè)計(jì)。本書(shū)首先介紹數(shù)據(jù)理解、數(shù)據(jù)的處理與特征,幫助讀者認(rèn)識(shí)數(shù)據(jù);然后從宏觀、系統(tǒng)的角度介紹機(jī)器學(xué)習(xí)算法分類、一般學(xué)習(xí)規(guī)則及機(jī)器學(xué)習(xí)的基礎(chǔ)應(yīng)用;接著根據(jù)項(xiàng)目研發(fā)的流程,詳細(xì)介紹了模型選擇和結(jié)構(gòu)設(shè)計(jì)、目標(biāo)函數(shù)設(shè)計(jì)、模型訓(xùn)練過(guò)程設(shè)計(jì)、模型效果的評(píng)估與驗(yàn)證、計(jì)算性能與模型加速;最后通過(guò)多個(gè)應(yīng)用案例幫助讀者加強(qiáng)對(duì)前面知識(shí)點(diǎn)的理解。
統(tǒng)計(jì)學(xué)中的三要素是模型+策略+算法。
對(duì)于算法,本書(shū)用原理+示例進(jìn)行講解,做到學(xué)以致用。
對(duì)于模型,本書(shū)用表格對(duì)比各模型優(yōu)缺點(diǎn)+適用場(chǎng)景+具體案例,讀者可根據(jù)場(chǎng)景找到適合的模型。
策略的具體呈現(xiàn)是損失函數(shù),用公式+描述+適用問(wèn)題對(duì)各損失函數(shù)進(jìn)行對(duì)比介紹,并用案例詳細(xì)展現(xiàn)具體應(yīng)用。
劉凡平,碩士,畢業(yè)于中國(guó)科學(xué)技術(shù)大學(xué),專注于大數(shù)據(jù)分析、搜索引擎、傳統(tǒng)機(jī)器學(xué)習(xí)和深度的應(yīng)用與研究,從業(yè)多年,深耕在機(jī)器學(xué)習(xí)應(yīng)用領(lǐng)域,擁有多項(xiàng)人工智能技術(shù)領(lǐng)域?qū)@鼉赡険?dān)任過(guò)多場(chǎng)全國(guó)性人工智能領(lǐng)域賽事的講師與評(píng)委,負(fù)責(zé)過(guò)國(guó)內(nèi)一線互聯(lián)網(wǎng)企業(yè)的機(jī)器學(xué)習(xí)組、算法團(tuán)隊(duì)建設(shè),擁有豐富的人工智能應(yīng)用落地和團(tuán)隊(duì)管理經(jīng)驗(yàn)。2016年至今已出版過(guò)《大數(shù)據(jù)搜索引擎原理分析》《大數(shù)據(jù)時(shí)代的算法》《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)應(yīng)用實(shí)戰(zhàn)》等技術(shù)專著。
第1章 引言 1
1.1 人工智能概述 2
1.1.1 人工智能的分類 2
1.1.2 人工智能的應(yīng)用 3
1.2 人工智能與傳統(tǒng)機(jī)器學(xué)習(xí) 5
1.2.1 人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò) 5
1.2.2 落地的關(guān)鍵因素 6
1.3 機(jī)器學(xué)習(xí)算法領(lǐng)域發(fā)展綜述 8
1.3.1 計(jì)算機(jī)視覺(jué) 9
1.3.2 自然語(yǔ)言處理 10
1.3.3 語(yǔ)音識(shí)別 11
1.4 小結(jié) 13
參考文獻(xiàn) 13
第2章 數(shù)據(jù)理解 16
2.1 數(shù)據(jù)的三個(gè)基本維度 17
2.1.1 集中趨勢(shì) 17
2.1.2 離散趨勢(shì) 19
2.1.3 分布形態(tài) 20
2.2 數(shù)據(jù)的統(tǒng)計(jì)推論的基本方法 22
2.2.1 數(shù)據(jù)抽樣 22
2.2.2 參數(shù)估計(jì) 24
2.2.3 假設(shè)檢驗(yàn) 26
2.3 數(shù)據(jù)分析 31
2.3.1 基本理念 31
2.3.2 體系結(jié)構(gòu) 32
2.3.3 傳統(tǒng)數(shù)據(jù)分析方法與示例 33
2.3.4 基于數(shù)據(jù)挖掘的數(shù)據(jù)分析方法與示例 35
2.3.5 工作流程 38
2.3.6 數(shù)據(jù)分析技巧 40
2.3.7 數(shù)據(jù)可視化 43
2.4 小結(jié) 45
參考文獻(xiàn) 45
第3章 數(shù)據(jù)處理與特征 47
3.1 數(shù)據(jù)的基本處理 48
3.1.1 數(shù)據(jù)預(yù)處理 48
3.1.2 數(shù)據(jù)清洗中的異常值判定和處理 49
3.1.3 數(shù)據(jù)清洗中的缺失值填充 51
3.2 數(shù)據(jù)的特征縮放和特征編碼 54
3.2.1 特征縮放 54
3.2.2 特征編碼 57
3.3 數(shù)據(jù)降維 58
3.3.1 基本思想與方法 58
3.3.2 變量選擇 59
3.3.3 特征提取 61
3.4 圖像的特征分析 68
3.4.1 圖像預(yù)處理 68
3.4.2 傳統(tǒng)圖像特征提取 74
3.4.3 指紋識(shí)別 77
3.5 小結(jié) 78
參考文獻(xiàn) 79
第4章 機(jī)器學(xué)習(xí)基礎(chǔ) 81
4.1 統(tǒng)計(jì)學(xué)習(xí) 82
4.1.1 統(tǒng)計(jì)學(xué)習(xí)概述 82
4.1.2 一般研發(fā)流程 83
4.2 機(jī)器學(xué)習(xí)算法分類 85
4.2.1 體系框架 85
4.2.2 模型的形式 88
4.3 機(jī)器學(xué)習(xí)的學(xué)習(xí)規(guī)則 90
4.3.1 誤差修正學(xué)習(xí) 90
4.3.2 赫布學(xué)習(xí)規(guī)則 91
4.3.3 最小均方規(guī)則 92
4.3.4 競(jìng)爭(zhēng)學(xué)習(xí)規(guī)則 93
4.3.5 其他學(xué)習(xí)規(guī)則 94
4.4 機(jī)器學(xué)習(xí)的基礎(chǔ)應(yīng)用 95
4.4.1 基于最小二乘法的回歸分析 95
4.4.2 基于K-Means的聚類分析 98
4.4.3 基于樸素貝葉斯的分類分析 101
4.5 小結(jié) 103
參考文獻(xiàn) 103
第5章 模型選擇和結(jié)構(gòu)設(shè)計(jì) 105
5.1 傳統(tǒng)機(jī)器學(xué)習(xí)模型選擇 106
5.1.1 基本原則 106
5.1.2 經(jīng)典模型 107
5.2 經(jīng)典回歸模型的理解和選擇 108
5.2.1 邏輯回歸 108
5.2.2 多項(xiàng)式回歸 109
5.2.3 各類回歸模型的簡(jiǎn)單對(duì)比 112
5.3 經(jīng)典分類模型的理解和選擇 113
5.3.1 K近鄰算法 113
5.3.2 支持向量機(jī) 114
5.3.3 多層感知器 115
5.3.4 AdaBoost算法 117
5.3.5 各類分類算法的簡(jiǎn)單對(duì)比 118
5.4 經(jīng)典聚類模型的理解和選擇 120
5.4.1 基于劃分的聚類 120
5.4.2 基于層次的聚類 122
5.4.3 基于密度的聚類 126
5.4.4 基于網(wǎng)格的聚類 131
5.4.5 聚類算法的簡(jiǎn)單對(duì)比 131
5.5 深度學(xué)習(xí)模型選擇 132
5.5.1 分類問(wèn)題模型 132
5.5.2 聚類問(wèn)題模型 138
5.5.3 回歸預(yù)測(cè)模型 139
5.5.4 各類深度學(xué)習(xí)模型的簡(jiǎn)單對(duì)比 140
5.6 深度學(xué)習(xí)模型結(jié)構(gòu)的設(shè)計(jì)方向 141
5.6.1 基于深度的設(shè)計(jì) 141
5.6.2 基于升維或降維的設(shè)計(jì) 144
5.6.3 基于寬度和多尺度的設(shè)計(jì) 145
5.7 模型結(jié)構(gòu)設(shè)計(jì)中的簡(jiǎn)單技巧 146
5.7.1 激活函數(shù)的選擇 146
5.7.2 隱藏神經(jīng)元的估算 147
5.7.3 卷積核串聯(lián)使用 148
5.7.4 利用Dropout提升性能 149
5.8 小結(jié) 150
參考文獻(xiàn) 151
第6章 目標(biāo)函數(shù)設(shè)計(jì) 154
6.1 損失函數(shù) 155
6.1.1 一般簡(jiǎn)單損失函數(shù) 155
6.1.2 圖像分類場(chǎng)景經(jīng)典損失函數(shù) 156
6.1.3 目標(biāo)檢測(cè)中的經(jīng)典損失函數(shù) 158
6.1.4 圖像分割中的經(jīng)典損失函數(shù) 159
6.1.5 對(duì)比場(chǎng)景中的經(jīng)典損失函數(shù) 161
6.2 風(fēng)險(xiǎn)最小化和設(shè)計(jì)原則 165
6.2.1 期望風(fēng)險(xiǎn)、經(jīng)驗(yàn)風(fēng)險(xiǎn)和結(jié)構(gòu)風(fēng)險(xiǎn) 165
6.2.2 目標(biāo)函數(shù)的設(shè)計(jì)原則 166
6.3 基于梯度下降法的目標(biāo)函數(shù)優(yōu)化 167
6.3.1 理論基礎(chǔ) 167
6.3.2 常見(jiàn)的梯度下降法 169
6.3.3 改進(jìn)方法 169
6.4 基于牛頓法的目標(biāo)求解 173
6.4.1 基本原理 173
6.4.2 牛頓法的計(jì)算步驟 174
6.5 小結(jié) 175
參考文獻(xiàn) 176
第7章 模型訓(xùn)練過(guò)程設(shè)計(jì) 178
7.1 數(shù)據(jù)選擇 179
7.1.1 數(shù)據(jù)集篩選 179
7.1.2 難例挖掘 180
7.1.3 數(shù)據(jù)增強(qiáng) 181
7.2 參數(shù)初始化 183
7.2.1 避免全零初始化 183
7.2.2 隨機(jī)初始化 184
7.3 擬合的驗(yàn)證與判斷 185
7.3.1 過(guò)擬合的模型參數(shù) 185
7.3.2 不同算法場(chǎng)景中的欠擬合和過(guò)擬合 187
7.4 學(xué)習(xí)速率的選擇 188
7.4.1 學(xué)習(xí)速率的一般觀測(cè)方法 188
7.4.2 學(xué)習(xí)速率與批處理大小的關(guān)系 189
7.5 遷移學(xué)習(xí) 189
7.5.1 概念與基本方法 189
7.5.2 應(yīng)用示例:基于VGG-16的遷移思路 190
7.6 分布式訓(xùn)練 191
7.6.1 數(shù)據(jù)并行 191
7.6.2 模型并行 193
7.7 小結(jié) 194
參考文獻(xiàn) 194
第8章 模型效果的評(píng)估與驗(yàn)證 196
8.1 模型效果評(píng)估的一般性指標(biāo) 197
8.1.1 分類算法的效果評(píng)估 197
8.1.2 聚類算法的效果評(píng)估 201
8.1.3 回歸算法的效果評(píng)估 205
8.1.4 不同應(yīng)用場(chǎng)景下的效果評(píng)估 206
8.2 交叉驗(yàn)證 208
8.2.1 基本思想 208
8.2.2 不同的交叉驗(yàn)證方法 209
8.3 模型的穩(wěn)定性分析 210
8.3.1 計(jì)算的穩(wěn)定性 210
8.3.2 數(shù)據(jù)的穩(wěn)定性 211
8.3.3 模型性能 212
8.4 小結(jié) 213
參考文獻(xiàn) 213
第9章 計(jì)算性能與模型加速 215
9.1 計(jì)算優(yōu)化 216
9.1.1 問(wèn)題與挑戰(zhàn) 216
9.1.2 設(shè)備與推斷計(jì)算 216
9.2 性能指標(biāo) 217
9.2.1 計(jì)算平臺(tái)的重要指標(biāo):算力和帶寬 217
9.2.2 模型的兩個(gè)重要指標(biāo):計(jì)算量和訪存量 218
9.3 模型壓縮與裁剪 219
9.3.1 問(wèn)題背景 219
9.3.2 基本思路和方法 220
9.4 小結(jié) 221
參考文獻(xiàn) 221
第10章 應(yīng)用案例專題 223
10.1 求解二元一次方程 224
10.1.1 問(wèn)題分析 224
10.1.2 模型設(shè)計(jì) 225
10.2 鳶尾花的案例分析 226
10.2.1 數(shù)據(jù)說(shuō)明 226
10.2.2 數(shù)據(jù)理解和可視化 227
10.2.3 數(shù)據(jù)特征的降維 230
10.2.4 數(shù)據(jù)分類 231
10.2.5 數(shù)據(jù)聚類 235
10.3 形體識(shí)別 237
10.3.1 問(wèn)題定義 237
10.3.2 應(yīng)用形式 239
10.3.3 數(shù)據(jù)準(zhǔn)備與處理 241
10.3.4 技術(shù)方案與模型設(shè)計(jì) 243
10.3.5 改進(jìn)思考 245
10.4 小結(jié) 246
參考文獻(xiàn) 246