實戰(zhàn)機(jī)器學(xué)習(xí)
定 價:¥99
中 教 價:¥58.41 (5.90折)促銷
庫 存 數(shù): 8
叢 書 名:人工智能技術(shù)叢書
隨著互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、云計算等技術(shù)的不斷發(fā)展,許多領(lǐng)域都產(chǎn)生了大量的數(shù)據(jù)。利用機(jī)器學(xué)習(xí)技術(shù)分析海量數(shù)據(jù),可以從數(shù)據(jù)中發(fā)現(xiàn)隱含的、有價值的規(guī)律和模式,進(jìn)而用于預(yù)測并采取相應(yīng)動作。在上述背景下,本書從理論、技術(shù)和應(yīng)用三個層面入手,全面講解如何利用機(jī)器學(xué)習(xí)技術(shù)解決實際問題。 本書共分26章,內(nèi)容包括機(jī)器學(xué)習(xí)解決問題流程、問題分析與建模、數(shù)據(jù)探索與準(zhǔn)備、特征工程、模型訓(xùn)練與評價、模型部署與應(yīng)用、回歸模型、支持向量機(jī)、決策樹、集成學(xué)習(xí)、K近鄰算法、貝葉斯方法、聚類算法、關(guān)聯(lián)規(guī)則學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)、正則化、深度學(xué)習(xí)中的優(yōu)化、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、自編碼器、基于深度學(xué)習(xí)的語音分離方法、基于深度學(xué)習(xí)的圖像去水印方法、基于LSTM的云環(huán)境工作負(fù)載預(yù)測方法、基于QoS的服務(wù)組合問題、基于強(qiáng)化學(xué)習(xí)的投資組合方法、基于GAN模型的大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化方法。 本書內(nèi)容全面、示例豐富,適合機(jī)器學(xué)習(xí)初學(xué)者以及想要全面掌握機(jī)器學(xué)習(xí)技術(shù)的算法開發(fā)人員,也適合高等院校和培訓(xùn)機(jī)構(gòu)人工智能相關(guān)專業(yè)的師生教學(xué)參考。
本書創(chuàng)作團(tuán)隊核心成員長期從事機(jī)器學(xué)習(xí)方面的理論研究和工程實踐,通過項目實戰(zhàn),積累了大量解決問題的方法和經(jīng)驗,并通過本書將自己的經(jīng)驗整理出來,以滿足廣大讀者希望使用機(jī)器學(xué)習(xí)來解決實際問題的需要。
近年來,隨著云計算、大數(shù)據(jù)和人工智能等技術(shù)的飛速發(fā)展,機(jī)器學(xué)習(xí)逐漸成為學(xué)術(shù)界和產(chǎn)業(yè)界關(guān)注的熱點方向。機(jī)器學(xué)習(xí)主要關(guān)注如何指導(dǎo)學(xué)習(xí)算法從已有的經(jīng)驗中進(jìn)行學(xué)習(xí),這與計算機(jī)科學(xué)領(lǐng)域經(jīng)典的、確定性的算法設(shè)計思路完全不同,后者強(qiáng)調(diào)由人給出針對具體問題的、明確的計算規(guī)則。機(jī)器學(xué)習(xí)方法特別適合解決難以用規(guī)則描述其解決方案的復(fù)雜問題。隨著云計算、大數(shù)據(jù)處理技術(shù)的不斷完善,機(jī)器學(xué)習(xí)方法已經(jīng)解決了許多的實際問題。目前有很多介紹機(jī)器學(xué)習(xí)理論與方法的經(jīng)典書籍,但調(diào)研表明,目前市場上介紹如何采用機(jī)器學(xué)習(xí)方法解決實際應(yīng)用問題的書籍很少。本書創(chuàng)作團(tuán)隊核心成員自2015年起就一直從事機(jī)器學(xué)習(xí)方面的理論研究和工程實踐,通過項目實戰(zhàn),我們遇到了很多問題,積累了大量解決問題的方法和經(jīng)驗,認(rèn)為有必要將自己的經(jīng)驗和認(rèn)識整理出來,以滿足廣大讀者希望使用機(jī)器學(xué)習(xí)技術(shù)解決實際問題的需求,這也正是書名《實戰(zhàn)機(jī)器學(xué)習(xí)》的由來。本書讀者本書適合不同層次的讀者閱讀。建議讀者根據(jù)自己的興趣和目的有選擇地閱讀:希望快速了解機(jī)器學(xué)習(xí)基本概念、分類和發(fā)展趨勢的讀者,可以重點閱讀第1、2章和附錄部分;已經(jīng)掌握機(jī)器學(xué)習(xí)基本概念,想系統(tǒng)學(xué)習(xí)各種方法和技術(shù)的讀者,可以重點閱讀第3章~第20章;想利用機(jī)器學(xué)習(xí)技術(shù)解決各類實際計算問題的讀者,可以重點閱讀第21章~第26章。源碼下載與技術(shù)支持本書配套的資源,請用微信掃描右邊的二維碼獲取,可按掃描出來的頁面提示把下載鏈接轉(zhuǎn)到自己的郵箱中下載。如果學(xué)習(xí)本書過程中發(fā)現(xiàn)問題,請聯(lián)系booksaga@163.com,郵件主題為實戰(zhàn)機(jī)器學(xué)習(xí)。
本書作者與致謝感謝本書創(chuàng)作團(tuán)隊核心成員曹蓉、楊瑾、陳浚豪、黃宇、宋雨菲、張晶、王方正、張政同、王一杰、陳嘉瑞、任笑、宋金秋、魏守鑫、楊大為、崔少輝、程勇志、雷世偉等同學(xué)的辛勤努力。感謝西安電子科技大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院各位領(lǐng)導(dǎo)和老師的寶貴意見。機(jī)器學(xué)習(xí)方面的理論材料比較豐富,而關(guān)于如何采用機(jī)器學(xué)習(xí)解決實際問題的相關(guān)資料數(shù)量非常有限,加之作者水平有限,時間緊迫,書中難免存在不當(dāng)之處,懇請讀者批評指正。建議和意見請發(fā)電子郵箱booksaga@163.com,郵件主題寫實戰(zhàn)機(jī)器學(xué)習(xí)。
作 者2021年6月
鮑亮,西安電子科技大學(xué)副教授,西安電子科技大學(xué)博士。主要研究方向為軟件體系結(jié)構(gòu)、面向服務(wù)的計算和云計算等,主持并完成科研課題多項,發(fā)表學(xué)術(shù)論文20余篇。崔江濤,西安電子科技大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院教授、博士生導(dǎo)師。西安電子科技大學(xué)計算機(jī)學(xué)院博士。2018年入選陜西省高等學(xué)校教學(xué)名師,2020年入選陜西省特支計劃領(lǐng)軍人才。享受國務(wù)院政府特殊津貼,入選第八屆教育部科學(xué)技術(shù)委員會學(xué)部委員。李倩,西安交通大學(xué)講師,西安交通大學(xué)博士。主要研究方向為行為金融學(xué)和組合投資等,主持并完成科研課題多項,發(fā)表學(xué)術(shù)論文10余篇。
第1章 機(jī)器學(xué)習(xí)解決問題流程 11.1 機(jī)器學(xué)習(xí)基礎(chǔ) 11.1.1 機(jī)器學(xué)習(xí)定義 11.1.2 機(jī)器學(xué)習(xí)流派 31.1.3 機(jī)器學(xué)習(xí)簡史 71.2 機(jī)器學(xué)習(xí)解決實際問題的流程 81.3 機(jī)器學(xué)習(xí)平臺介紹 101.3.1 阿里PAI 101.3.2 第四范式先知(Sage EE) 111.3.3 騰訊智能鈦機(jī)器學(xué)習(xí)(TI-ML) 121.3.4 中科院EasyML 131.3.5 百度機(jī)器學(xué)習(xí)BML 141.3.6 華為AI開發(fā)平臺ModelArts 151.3.7 微軟Azure機(jī)器學(xué)習(xí)服務(wù) 151.3.8 谷歌Cloud AutoML平臺 161.3.9 亞馬遜SageMaker 171.4 本章小結(jié) 18第2章 問題分析與建模 192.1 問題分析 192.1.1 明確和理解問題 192.1.2 拆解和定位問題 212.2 數(shù)據(jù)分析 232.2.1 描述統(tǒng)計分析 242.2.2 相關(guān)分析 242.2.3 回歸分析 252.2.4 分類分析 252.2.5 聚類分析 262.3 問題建模 272.4 心臟病UCI數(shù)據(jù)集案例 272.4.1 問題描述 282.4.2 問題分析 282.4.3 數(shù)據(jù)分析 292.4.4 問題建模 302.5 本章小結(jié) 31第3章 數(shù)據(jù)探索與準(zhǔn)備 323.1 ETL技術(shù) 323.1.1 ETL工作方式 323.1.2 ETL實現(xiàn)模式 333.1.3 ETL發(fā)展歷程 343.1.4 主流ETL工具 373.2 數(shù)據(jù)清洗 403.2.1 數(shù)據(jù)缺失處理 403.2.2 異常值處理 413.3 采樣 423.3.1 拒絕采樣 423.3.2 重要性采樣 433.3.3 馬爾可夫鏈蒙特卡洛采樣 443.4 本章小結(jié) 46第4章 特征工程 474.1 數(shù)據(jù)預(yù)處理 474.1.1 特征縮放 474.1.2 特征編碼 484.2 特征選擇 534.2.1 過濾式選擇Filter 534.2.2 包裹式選擇Wrapper 594.2.3 嵌入式選擇Embedded 614.3 降維 634.3.1 主成分分析PCA 634.3.2 線性判別分析 654.4 本章小結(jié) 66第5章 模型訓(xùn)練與評價 675.1 模型選擇 675.1.1 基礎(chǔ)知識 675.1.2 模型選擇的要素 685.2 模型訓(xùn)練 685.2.1 留出法 695.2.2 交叉驗證法 705.2.3 自助法 715.3 模型調(diào)優(yōu) 715.3.1 超參數(shù)調(diào)優(yōu) 715.3.2 神經(jīng)架構(gòu)搜索 735.3.3 元學(xué)習(xí) 765.4 模型評價 785.4.1 分類問題 785.4.2 回歸問題 815.4.3 聚類問題 825.5 本章小結(jié) 83第6章 模型部署與應(yīng)用 846.1 機(jī)器學(xué)習(xí)模型格式 846.1.1 scikit-learn 846.1.2 TensorFlow 856.1.3 PyTorch 866.2 機(jī)器學(xué)習(xí)模型部署 876.2.1 模型在平臺內(nèi)應(yīng)用 876.2.2 將模型封裝成可執(zhí)行腳本 886.2.3 基于容器和微服務(wù)的模型部署方式 896.2.4 模型部署方式對比 926.3 模型對外訪問接口 936.3.1 REST架構(gòu) 936.3.2 RPC架構(gòu) 946.3.3 gRPC架構(gòu) 956.3.4 模型對外接口對比 966.4 模型更新 966.4.1 如何更新模型 976.4.2 如何進(jìn)行持續(xù)更新 976.5 本章小結(jié) 99第7章 回歸模型 1007.1 線性回歸 1007.1.1 線性回歸原理 1007.1.2 多項式回歸 1017.1.3 線性回歸案例 1017.2 正則線性模型 1037.2.1 正則線性模型原理 1037.2.2 L1、L2正則化對比 1037.3 邏輯回歸 1057.3.1 邏輯回歸原理 1067.3.2 邏輯回歸案例 1097.4 本章小結(jié) 109第8章 支持向量機(jī) 1108.1 緒論 1108.2 支持向量機(jī)原理 1118.2.1 函數(shù)間隔 1118.2.2 對偶問題 1128.2.3 軟間隔SVM 1138.2.4 KKT條件 1148.2.5 支持向量 1158.2.6 核函數(shù) 1158.2.7 SMO 1178.2.8 合頁損失函數(shù) 1178.3 SVR回歸方法 1178.4 SVM預(yù)測示例 1198.5 本章小結(jié) 120第9章 決策樹 1219.1 緒論 1219.2 決策樹基本概念 1219.2.1 特征選擇 1229.2.2 信息增益 1229.2.3 信息增益率 1239.2.4 基尼系數(shù) 1249.3 ID3算法 1249.4 C4.5算法 1259.4.1 決策樹生成 1259.4.2 決策樹剪枝 1269.5 CART算法 1279.5.1 決策樹生成 1289.5.2 決策樹剪枝 1299.6 決策樹應(yīng)用 1309.7 本章小結(jié) 130第10章 集成學(xué)習(xí) 13110.1 bagging與隨機(jī)森林 13110.1.1 bagging 13110.1.2 隨機(jī)森林 13210.1.3 隨機(jī)森林的應(yīng)用 13210.1.4 隨機(jī)森林的推廣 13510.2 boosting 13610.2.1 Adaboost 13610.2.2 前向分步算法 14210.2.3 三大框架 14710.3 stacking與blending 15410.4 本章小結(jié) 156第11章 K近鄰算法 15711.1 KNN算法 15711.2 距離的表示 15811.3 KD樹 15911.4 KNN心臟病預(yù)測實例 16011.5 本章小結(jié) 161第12章 貝葉斯方法 16212.1 貝葉斯方法概述 16212.2 貝葉斯決策論 16312.3 樸素貝葉斯分類器 16512.4 貝葉斯網(wǎng)絡(luò) 16512.4.1 貝葉斯網(wǎng)絡(luò)概念 16612.4.2 貝葉斯網(wǎng)絡(luò)學(xué)習(xí) 16712.4.3 貝葉斯網(wǎng)絡(luò)推理 16812.4.4 貝葉斯網(wǎng)絡(luò)的應(yīng)用 16912.5 貝葉斯優(yōu)化 16912.5.1 貝葉斯優(yōu)化框架 17012.5.2 概率代理模型 17012.5.3 采集函數(shù) 17212.5.4 貝葉斯優(yōu)化的應(yīng)用 17312.6 貝葉斯優(yōu)化迭代過程示例 17412.7 本章小結(jié) 177第13章 聚類算法 17813.1 聚類的評價指標(biāo) 17813.2 距離計算 17913.3 聚類算法 18013.3.1 基于層次的算法 18013.3.2 基于分割的算法 18113.3.3 基于密度的算法 18513.4 本章小結(jié) 187第14章 關(guān)聯(lián)規(guī)則學(xué)習(xí) 18814.1 關(guān)聯(lián)規(guī)則學(xué)習(xí)概述 18814.2 頻繁項集 18814.3 Apriori算法 18914.4 FP-growth算法 19314.5 本章小結(jié) 196第15章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 19715.1 神經(jīng)網(wǎng)絡(luò)概述 19715.2 神經(jīng)網(wǎng)絡(luò)原理 19815.2.1 神經(jīng)元 19815.2.2 損失函數(shù) 19915.2.3 激活函數(shù) 20115.2.4 正向傳播 20215.2.5 反向傳播 20315.3 前饋神經(jīng)網(wǎng)絡(luò) 20415.3.1 前饋神經(jīng)網(wǎng)絡(luò)概述 20415.3.2 MNIST數(shù)據(jù)集多分類應(yīng)用 20515.4 本章小結(jié) 206第16章 正則化 20716.1 正則化概述 20716.2 數(shù)據(jù)集增強(qiáng) 20716.3 提前終止 20816.4 Dropout 20816.5 Batch Normalization 21116.6 本章小結(jié) 213第17章 深度學(xué)習(xí)中的優(yōu)化 21417.1 優(yōu)化技術(shù)概述 21417.2 優(yōu)化原理 21517.2.1 標(biāo)準(zhǔn)化 21517.2.2 梯度下降 21917.2.3 參數(shù)初始化 22117.3 自適應(yīng)優(yōu)化方法 22317.4 參數(shù)初始化方法 22417.5 本章小結(jié) 225第18章 卷積神經(jīng)網(wǎng)絡(luò) 22618.1 卷積神經(jīng)網(wǎng)絡(luò)概述 22618.2 卷積神經(jīng)網(wǎng)絡(luò)原理 22618.2.1 局部連接 22718.2.2 權(quán)值共享 22818.2.3 池化層 22918.3 卷積神經(jīng)網(wǎng)絡(luò)的新方法 23018.3.1 1D/2D/3D卷積 23018.3.2 11卷積 23118.3.3 空洞卷積 23118.3.4 全卷積神經(jīng)網(wǎng)絡(luò) 23118.4 卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 23218.4.1 卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展 23218.4.2 MNIST數(shù)據(jù)集分類示例 23418.5 本章小結(jié) 234第19章 循環(huán)神經(jīng)網(wǎng)絡(luò) 23519.1 循環(huán)神經(jīng)網(wǎng)絡(luò)概述 23519.2 循環(huán)神經(jīng)網(wǎng)絡(luò)原理 23619.2.1 展開計算圖 23619.2.2 循環(huán)神經(jīng)網(wǎng)絡(luò) 23719.2.3 長期依賴 23919.2.4 LSTM 24019.2.5 GRU 24119.2.6 雙向RNN 24219.2.7 深度循環(huán)網(wǎng)絡(luò) 24319.2.8 基于編碼?解碼的序列到序列架構(gòu) 24419.3 各種RNN的優(yōu)缺點及應(yīng)用場景 24519.4 時間序列預(yù)測問題示例 24619.5 本章小結(jié) 248第20章 自編碼器 24920.1 緒論 24920.2 自編碼器原理 25020.2.1 經(jīng)典自編碼器 25020.2.2 去噪自編碼器 25120.2.3 稀疏自編碼器 25220.2.4 變分自編碼器 25320.2.5 堆疊自編碼器 25420.2.6 與神經(jīng)網(wǎng)絡(luò)融合的編碼器 25620.3 自編碼器優(yōu)缺點及應(yīng)用場景 25720.4 自編碼器應(yīng)用 25820.5 本章小結(jié) 259第21章 基于深度學(xué)習(xí)的語音分離方法 26021.1 問題背景 26021.2 問題定義 26121.3 相關(guān)工作 26221.4 VoiceFilter的實現(xiàn)方法 26321.4.1 說話人編碼器 26421.4.2 聲譜掩碼網(wǎng)絡(luò) 26921.4.3 實驗效果 27321.5 本章小結(jié) 274第22章 基于深度學(xué)習(xí)的圖像去水印方法 27622.1 圖像去水印的研究背景 27622.2 圖像修復(fù)問題的定義 27722.3 圖像修復(fù)的相關(guān)工作 27822.3.1 傳統(tǒng)修復(fù)方法 27922.3.2 基于深度學(xué)習(xí)的修復(fù)方法 27922.3.3 修復(fù)效果評價指標(biāo) 28022.3.4 常用數(shù)據(jù)集 28122.4 方法實現(xiàn) 28222.4.1 基于內(nèi)容編碼器的生成網(wǎng)絡(luò)模型 28222.4.2 損失函數(shù)設(shè)計 28622.4.3 算法步驟 28822.4.4 實驗結(jié)果展示 28922.5 本章小結(jié) 290第23章 基于LSTM的云環(huán)境工作負(fù)載預(yù)測方法 29123.1 工作負(fù)載預(yù)測的研究背景 29123.2 工作負(fù)載預(yù)測問題的定義 29223.3 工作負(fù)載預(yù)測的相關(guān)工作 29323.3.1 循環(huán)神經(jīng)網(wǎng)絡(luò) 29323.3.2 門控循環(huán)單元 29423.4 基于LSTM的工作負(fù)載預(yù)測 29523.4.1 負(fù)載數(shù)據(jù)預(yù)處理 29523.4.2 LSTM預(yù)測模型 29623.4.3 實驗結(jié)果與分析 29723.5 本章小結(jié) 300第24章 基于QoS的服務(wù)組合問題 30124.1 服務(wù)組合問題的研究背景 30124.2 半自動服務(wù)組合問題的定義 30224.3 服務(wù)組合問題的相關(guān)工作 30524.3.1 求解解的方法 30524.3.2 基于元啟發(fā)式算法的方法 30524.3.3 基于強(qiáng)化學(xué)習(xí)的方法 30624.4 Q-learning算法 30624.5 Q-learning算法的實現(xiàn) 30824.5.1 狀態(tài)集設(shè)計 30824.5.2 動作集設(shè)計 30924.5.3 回報函數(shù)設(shè)計 31024.5.4 Q-learning算法步驟 31024.5.5 實驗結(jié)果展示 31324.6 本章小結(jié) 315第25章 基于強(qiáng)化學(xué)習(xí)的投資組合方法 31625.1 投資組合問題的研究背景 31625.2 投資組合指數(shù)增強(qiáng)問題的定義 31925.2.1 符號定義 31925.2.2 基本假設(shè) 31925.2.3 問題描述 31925.2.4 個股收益率和指數(shù)收益率 32025.2.5 目標(biāo)函數(shù) 32025.2.6 約束條件 32125.2.7 問題的完整定義 32125.3 投資組合問題的研究方法 32225.3.1 基于統(tǒng)計模型的方法 32225.3.2 啟發(fā)式算法 32225.3.3 基于學(xué)習(xí)的算法 32225.4 深度確定性策略梯度算法 32325.5 投資組合問題的實現(xiàn)方法 32625.5.1 數(shù)據(jù)探索與準(zhǔn)備 32625.5.2 模型訓(xùn)練與評價 32825.5.3 實驗結(jié)果及分析 33325.6 本章小結(jié) 334第26章 基于GAN模型的大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化方法 33526.1 大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化的研究背景 33526.2 大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化問題的定義 33626.3 大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化的方法 33726.3.1 基于模型的大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化方法 33726.3.2 基于評估的大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化方法 33826.3.3 基于搜索的大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化方法 33826.3.4 基于學(xué)習(xí)的大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化方法 34326.3.5 大數(shù)據(jù)系統(tǒng)參數(shù)優(yōu)化問題的流程 34626.4 ACTGAN方法 34726.4.1 動機(jī) 34726.4.2 原理 34826.4.3 具體過程 34926.4.4 實驗結(jié)果 35226.5 本章小結(jié) 35426.5.1 總結(jié) 35426.5.2 展望 354附錄1 名詞及解釋 355附錄2 數(shù)據(jù)集 377參考文獻(xiàn) 381