本書針對TensorFlow 1.0以上版本編寫,采用"實(shí)例”的形式編寫,通過60個(gè)實(shí)例全面而深入地講解"深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)原理”和"Tensorflow使用方法”兩方面。書中的實(shí)例具有很強(qiáng)的實(shí)用,如對圖片分類、制作一個(gè)簡單的聊天機(jī)器人、進(jìn)行圖像識別等。本書還免費(fèi)提供了所有案例的源代碼及數(shù)據(jù)樣本,這些代碼和樣本不僅方便了讀者學(xué)習(xí),而且也能為以后的工作提供便利。全書共分為4篇: 第 1 篇 準(zhǔn)備; 第2篇 入門 ; 第 3 篇 基礎(chǔ)——常用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu); 第 4 篇 進(jìn)階--——掌握深度學(xué)習(xí)模型;第 5 篇 高級--——深度學(xué)習(xí)模型實(shí)戰(zhàn)。
李金洪,精通c、c++、匯編、python、java、go等語言。擅長神經(jīng)網(wǎng)絡(luò)、算法、協(xié)議分析、逆向、移動互聯(lián)網(wǎng)安全架構(gòu)等技術(shù),先后擔(dān)任過CAD算法工程師、手機(jī)游戲主程、架構(gòu)師、項(xiàng)目經(jīng)理、CTO、部門經(jīng)理、資深產(chǎn)品總監(jiān)等職位,也曾自主創(chuàng)業(yè)過。
=====第1篇 準(zhǔn)備
第1章 學(xué)習(xí)準(zhǔn)備/2
∣1.1 TensorFlow能做什么/2
∣1.2 學(xué)習(xí)TensorFlow的必備知識/3
∣1.3 學(xué)習(xí)技巧:跟讀代碼/4
∣1.4 如何學(xué)習(xí)本書/4
-
第2章 搭建開發(fā)環(huán)境/5
2.1 準(zhǔn)備硬件環(huán)境/5
2.2 下載及安裝Anaconda/6
2.3 安裝TensorFlow/9
2.4 GPU版本的安裝方法/10
∣2.4.1 在Windows中安裝CUDA/10
∣2.4.2 在Linux中安裝CUDA/13
∣2.4.3 在Windows中安裝cuDNN/13
∣2.4.4 在Linux中安裝cuDNN/14
∣2.4.5 常見錯(cuò)誤及解決方案/16
2.5 測試顯卡的常用命令/16
2.6 TensorFlow 1.x版本與2.x版本共存的解決方案/18
-
第3章 實(shí)例1:用AI模型識別圖像是桌子、貓、狗,還是其他/21
3.1 準(zhǔn)備代碼環(huán)境并預(yù)訓(xùn)練模型/21
3.2 代碼實(shí)現(xiàn):初始化環(huán)境變量,并載入ImgNet標(biāo)簽/24
3.3 代碼實(shí)現(xiàn):定義網(wǎng)絡(luò)結(jié)構(gòu)/25
3.4 代碼實(shí)現(xiàn):載入模型進(jìn)行識別/26
3.5 擴(kuò)展:用更多預(yù)訓(xùn)練模型完成圖片分類任務(wù)/28
∣
===== 第2篇 基礎(chǔ)
∣
第4章 用TensorFlow制作自己的數(shù)據(jù)集/30
4.1 快速導(dǎo)讀/30
∣4.1.1 什么是數(shù)據(jù)集/30
∣4.1.2 TensorFlow的框架/31
∣4.1.3 什么是TFDS/31
4.2 實(shí)例2:將模擬數(shù)據(jù)制作成內(nèi)存對象數(shù)據(jù)集/32
∣4.2.1 代碼實(shí)現(xiàn):生成模擬數(shù)據(jù)/32
∣4.2.2 代碼實(shí)現(xiàn):定義占位符/33
∣4.2.3 代碼實(shí)現(xiàn):建立會話,并獲取顯數(shù)據(jù)/34
∣4.2.4 代碼實(shí)現(xiàn):模擬數(shù)據(jù)可視化/34
∣4.2.5 運(yùn)行程序/34
∣4.2.6 代碼實(shí)現(xiàn):創(chuàng)建帶有迭代值并支持亂序功能的模擬數(shù)據(jù)集/35
4.3 實(shí)例3:將圖片制作成內(nèi)存對象數(shù)據(jù)集/37
∣4.3.1 樣本介紹/38
∣4.3.2 代碼實(shí)現(xiàn):載入文件名稱與標(biāo)簽/39
∣4.3.3 代碼實(shí)現(xiàn):生成隊(duì)列中的批次樣本數(shù)據(jù)/40
∣4.3.4 代碼實(shí)現(xiàn):在會話中使用數(shù)據(jù)集/41
∣4.3.5 運(yùn)行程序/42
4.4 實(shí)例4:將Excel文件制作成內(nèi)存對象數(shù)據(jù)集/42
∣4.4.1 樣本介紹/43
∣4.4.2 代碼實(shí)現(xiàn):逐行讀取數(shù)據(jù)并分離標(biāo)簽/43
∣4.4.3 代碼實(shí)現(xiàn):生成隊(duì)列中的批次樣本數(shù)據(jù)/44
∣4.4.4 代碼實(shí)現(xiàn):在會話中使用數(shù)據(jù)集/45
∣4.4.5 運(yùn)行程序/46
4.5 實(shí)例5:將圖片文件制作成TFRecord數(shù)據(jù)集/46
∣4.5.1 樣本介紹/47
∣4.5.2 代碼實(shí)現(xiàn):讀取樣本文件的目錄及標(biāo)簽/47
∣4.5.3 代碼實(shí)現(xiàn):定義函數(shù)生成TFRecord數(shù)據(jù)集/48
∣4.5.4 代碼實(shí)現(xiàn):讀取TFRecord數(shù)據(jù)集,并將其轉(zhuǎn)化為隊(duì)列/49
∣4.5.5 代碼實(shí)現(xiàn):建立會話,將數(shù)據(jù)保存到文件/50
∣4.5.6 運(yùn)行程序/51
4.6 實(shí)例6:將內(nèi)存對象制作成Dataset數(shù)據(jù)集/52
∣4.6.1 如何生成Dataset數(shù)據(jù)集/52
∣4.6.2 如何使用Dataset接口/53
∣4.6.3 tf.data.Dataset接口所支持的數(shù)據(jù)集變換操作/54
∣4.6.4 代碼實(shí)現(xiàn):以元組和字典的方式生成Dataset對象/58
∣4.6.5 代碼實(shí)現(xiàn):對Dataset對象中的樣本進(jìn)行變換操作/59
∣4.6.6 代碼實(shí)現(xiàn):創(chuàng)建Dataset迭代器/60
∣4.6.7 代碼實(shí)現(xiàn):在會話中取出數(shù)據(jù)/60
∣4.6.8 運(yùn)行程序/61
∣4.6.9 使用tf.data.Dataset.from_tensor_slices接口的注意事項(xiàng)/62
4.7 實(shí)例7:將圖片文件制作成Dataset數(shù)據(jù)集/63
∣4.7.1 代碼實(shí)現(xiàn):讀取樣本文件的目錄及標(biāo)簽/64
∣4.7.2 代碼實(shí)現(xiàn):定義函數(shù),實(shí)現(xiàn)圖片轉(zhuǎn)換操作/64
∣4.7.3 代碼實(shí)現(xiàn):用自定義函數(shù)實(shí)現(xiàn)圖片歸一化/65
∣4.7.4 代碼實(shí)現(xiàn):用第三方函數(shù)將圖片旋轉(zhuǎn)30°/65
∣4.7.5 代碼實(shí)現(xiàn):定義函數(shù),生成Dataset對象/66
∣4.7.6 代碼實(shí)現(xiàn):建立會話,輸出數(shù)據(jù)/67
∣4.7.7 運(yùn)行程序/68
4.8 實(shí)例8:將TFRecord文件制作成Dataset數(shù)據(jù)集/69
∣4.8.1 樣本介紹/69
∣4.8.2 代碼實(shí)現(xiàn):定義函數(shù),生成Dataset對象/70
∣4.8.3 代碼實(shí)現(xiàn):建立會話輸出數(shù)據(jù)/71
∣4.8.4 運(yùn)行程序/72
4.9 實(shí)例9:在動態(tài)圖中讀取Dataset數(shù)據(jù)集/72
∣4.9.1 代碼實(shí)現(xiàn):添加動態(tài)圖調(diào)用/72
∣4.9.2 制作數(shù)據(jù)集/73
∣4.9.3 代碼實(shí)現(xiàn):在動態(tài)圖中顯示數(shù)據(jù)/73
∣4.9.4 擴(kuò)展示例10:在TensorFlow 2.x中操作數(shù)據(jù)集/74
4.10 實(shí)例11:在不同場景中使用數(shù)據(jù)集/77
∣4.10.1 代碼實(shí)現(xiàn):在訓(xùn)練場景中使用數(shù)據(jù)集/78
∣4.10.2 代碼實(shí)現(xiàn):在應(yīng)用模型場景中使用數(shù)據(jù)集/79
∣4.10.3 代碼實(shí)現(xiàn):在訓(xùn)練與測試混合場景中使用數(shù)據(jù)集/80
4.11 tf.data.Dataset接口的更多應(yīng)用/81
-
第5章 10分鐘快速訓(xùn)練自己的圖片分類模型/82
5.1 快速導(dǎo)讀/82
∣5.1.1 認(rèn)識模型和模型檢查點(diǎn)文件/82
∣5.1.2 了解“預(yù)訓(xùn)練模型”與微調(diào)(Fine-Tune)/82
∣5.1.3 學(xué)習(xí)TensorFlow中的預(yù)訓(xùn)練模型庫——TF-Hub庫/83
5.2 實(shí)例12:通過微調(diào)模型分辨男女/83
∣5.2.1 準(zhǔn)備工作/84
∣5.2.2 代碼實(shí)現(xiàn):處理樣本數(shù)據(jù)并生成Dataset對象/85
∣5.2.3 代碼實(shí)現(xiàn):定義微調(diào)模型的類MyNASNetModel/88
∣5.2.4 代碼實(shí)現(xiàn):構(gòu)建MyNASNetModel類中的基本模型/88
∣5.2.5 代碼實(shí)現(xiàn):實(shí)現(xiàn)MyNASNetModel類中的微調(diào)操作/89
∣5.2.6 代碼實(shí)現(xiàn):實(shí)現(xiàn)與訓(xùn)練相關(guān)的其他方法/90
∣5.2.7 代碼實(shí)現(xiàn):構(gòu)建模型,用于訓(xùn)練、測試、使用/92
∣5.2.8 代碼實(shí)現(xiàn):通過二次迭代來訓(xùn)練微調(diào)模型/94
∣5.2.9 代碼實(shí)現(xiàn):測試模型/96
5.3 擴(kuò)展:通過攝像頭實(shí)時(shí)分辨男女/100
5.4 TF-slim接口中的更多成熟模型/100
∣5.5 實(shí)例13:用TF-Hub庫微調(diào)模型以評估人物的年齡/100
∣5.5.1 準(zhǔn)備樣本/101
∣5.5.2 下載TF-Hub庫中的模型/102
∣5.5.3 代碼實(shí)現(xiàn):測試TF-Hub庫中的MobileNet_V2模型/104
∣5.5.4 用TF-Hub庫微調(diào)MobileNet_V2模型/107
∣5.5.5 代碼實(shí)現(xiàn):用模型評估人物的年齡/109
∣5.5.6 擴(kuò)展:用TF-Hub庫中的其他模型實(shí)現(xiàn)不同領(lǐng)域的分類任務(wù)/113
∣5.6 總結(jié)/113
∣5.7 練習(xí)題/114
∣5.7.1 基于TF-slim接口的練習(xí)/115
∣5.7.2 基于TF-Hub庫的練習(xí)/115
-
第6章 用TensorFlow編寫訓(xùn)練模型的程序/117
6.1 快速導(dǎo)讀/117
∣6.1.1 訓(xùn)練模型是怎么一回事/117
∣6.1.2 用“靜態(tài)圖”方式訓(xùn)練模型/117
∣6.1.3 用“動態(tài)圖”方式訓(xùn)練模型/118
∣6.1.4 什么是估算器框架接口(Estimators API)/119
∣6.1.5 什么是tf.layers接口/120
∣6.1.6 什么是tf.keras接口/121
∣6.1.7 什么是tf.js接口/122
∣6.1.8 什么是TFLearn框架/123
∣6.1.9 該選擇哪種框架/123
∣6.1.10 分配運(yùn)算資源與使用分布策略/124
∣6.1.11 用tfdbg調(diào)試TensorFlow模型/127
∣6.1.12 用鉤子函數(shù)(Training_Hooks)跟蹤訓(xùn)練狀態(tài)/127
∣6.1.13 用分布式運(yùn)行方式訓(xùn)練模型/128
∣6.1.14 用T2T框架系統(tǒng)更方便地訓(xùn)練模型/128
∣6.1.15 將TensorFlow 1.x中的代碼移植到2.x版本/129
∣6.1.16 TensorFlow 2.x中的新特性——自動圖/130
6.2 實(shí)例14:用靜態(tài)圖訓(xùn)練一個(gè)具有保存檢查點(diǎn)功能的回歸模型/131
∣6.2.1 準(zhǔn)備開發(fā)步驟/131
∣6.2.2 生成檢查點(diǎn)文件/131
∣6.2.3 載入檢查點(diǎn)文件/132
∣6.2.4 代碼實(shí)現(xiàn):在線性回歸模型中加入保存檢查點(diǎn)功能/132
∣6.2.5 修改迭代次數(shù),二次訓(xùn)練/135
6.3 實(shí)例15:用動態(tài)圖(eager)訓(xùn)練一個(gè)具有保存檢查點(diǎn)功能的回歸模型/136
∣6.3.1 代碼實(shí)現(xiàn):啟動動態(tài)圖,生成模擬數(shù)據(jù)/136
∣6.3.2 代碼實(shí)現(xiàn):定義動態(tài)圖的網(wǎng)絡(luò)結(jié)構(gòu)/137
∣6.3.3 代碼實(shí)現(xiàn):在動態(tài)圖中加入保存檢查點(diǎn)功能/138
∣6.3.4 代碼實(shí)現(xiàn):按指定迭代次數(shù)進(jìn)行訓(xùn)練,并可視化結(jié)果/139
∣6.3.5 運(yùn)行程序,顯示結(jié)果/140
∣6.3.6 代碼實(shí)現(xiàn):用另一種方法計(jì)算動態(tài)圖梯度/141
∣6.3.7 擴(kuò)展實(shí)例16:在動態(tài)圖中獲取參數(shù)變量/142
∣6.3.8 小心動態(tài)圖中的參數(shù)陷阱/144
∣6.3.9 擴(kuò)展實(shí)例17:在靜態(tài)圖中使用動態(tài)圖/145
6.4 實(shí)例18:用估算器框架訓(xùn)練一個(gè)回歸模型/147
∣6.4.1 代碼實(shí)現(xiàn):生成樣本數(shù)據(jù)集/147
∣6.4.2 代碼實(shí)現(xiàn):設(shè)置日志級別/148
∣6.4.3 代碼實(shí)現(xiàn):實(shí)現(xiàn)估算器的輸入函數(shù)/148
∣6.4.4 代碼實(shí)現(xiàn):定義估算器的模型函數(shù)/149
∣6.4.5 代碼實(shí)現(xiàn):通過創(chuàng)建config文件指定硬件的運(yùn)算資源/151
∣6.4.6 代碼實(shí)現(xiàn):定義估算器/152
∣6.4.7 用tf.estimator.RunConfig控制更多的訓(xùn)練細(xì)節(jié)/153
∣6.4.8 代碼實(shí)現(xiàn):用估算器訓(xùn)練模型/153
∣6.4.9 代碼實(shí)現(xiàn):通過熱啟動實(shí)現(xiàn)模型微調(diào)/155
∣6.4.10 代碼實(shí)現(xiàn):測試估算器模型/158
∣6.4.11 代碼實(shí)現(xiàn):使用估算器模型/158
∣6.4.12 擴(kuò)展實(shí)例19:為估算器添加日志鉤子函數(shù)/159
6.5 實(shí)例20:將估算器代碼改寫成靜態(tài)圖代碼/161
∣6.5.1 代碼實(shí)現(xiàn):復(fù)制網(wǎng)絡(luò)結(jié)構(gòu)/161
∣6.5.2 代碼實(shí)現(xiàn):重用輸入函數(shù)/163
∣6.5.3 代碼實(shí)現(xiàn):創(chuàng)建會話恢復(fù)模型/163
∣6.5.4 代碼實(shí)現(xiàn):繼續(xù)訓(xùn)練/163
6.6 實(shí)例21:用tf.layers API在動態(tài)圖上識別手寫數(shù)字/165
∣6.6.1 代碼實(shí)現(xiàn):啟動動態(tài)圖并加載手寫圖片數(shù)據(jù)集/165
∣6.6.2 代碼實(shí)現(xiàn):定義模型的類/166
∣6.6.3 代碼實(shí)現(xiàn):定義網(wǎng)絡(luò)的反向傳播/167
∣6.6.4 代碼實(shí)現(xiàn):訓(xùn)練模型/167
6.7 實(shí)例22:用tf.keras API訓(xùn)練一個(gè)回歸模型/168
∣6.7.1 代碼實(shí)現(xiàn):用model類搭建模型/168
∣6.7.2 代碼實(shí)現(xiàn):用sequential類搭建模型/169
∣6.7.3 代碼實(shí)現(xiàn):搭建反向傳播的模型/171
∣6.7.4 代碼實(shí)現(xiàn):用兩種方法訓(xùn)練模型/172
∣6.7.5 代碼實(shí)現(xiàn):獲取模型參數(shù)/172
∣6.7.6 代碼實(shí)現(xiàn):測試模型與用模型進(jìn)行預(yù)測/173
∣6.7.7 代碼實(shí)現(xiàn):保存模型與加載模型/173
∣6.7.8 代碼實(shí)現(xiàn):將模型導(dǎo)出成JSON文件,再將JSON文件導(dǎo)入模型/175
∣6.7.9 擴(kuò)展實(shí)例23:在tf.keras接口中使用預(yù)訓(xùn)練模型ResNet/176
∣6.7.10 擴(kuò)展:在動態(tài)圖中使用tf.keras接口/178
∣6.7.11 擴(kuò)展實(shí)例24:在靜態(tài)圖中使用tf.keras接口/178
6.8 實(shí)例25:用tf.js接口后方訓(xùn)練一個(gè)回歸模型/180
∣6.8.1 代碼實(shí)現(xiàn):在HTTP的頭標(biāo)簽中添加tfjs模塊/180
∣6.8.2 代碼實(shí)現(xiàn):用JavaScript腳本實(shí)現(xiàn)回歸模型/181
∣6.8.3 運(yùn)行程序:在瀏覽器中查看效果/181
∣6.8.4 擴(kuò)展:tf.js 接口的應(yīng)用場景/182
6.9 實(shí)例26:用估算器框架實(shí)現(xiàn)分布式部署訓(xùn)練/182
∣6.9.1 運(yùn)行程序:修改估算器模型,使其支持分布式/182
∣6.9.2 通過TF_CONFIG進(jìn)行分布式配置/183
∣6.9.3 運(yùn)行程序/185
∣6.9.4 擴(kuò)展:用分布策略或KubeFlow框架進(jìn)行分布式部署/186
6.10 實(shí)例27:在分布式估算器框架中用tf.keras接口訓(xùn)練ResNet模型,識別圖片中是橘子還是蘋果/186
∣6.10.1 樣本準(zhǔn)備/186
∣6.10.2 代碼實(shí)現(xiàn):準(zhǔn)備訓(xùn)練與測試數(shù)據(jù)集/187
∣6.10.3 代碼實(shí)現(xiàn):制作模型輸入函數(shù)/187
∣6.10.4 代碼實(shí)現(xiàn):搭建ResNet模型/188
∣6.10.5 代碼實(shí)現(xiàn):訓(xùn)練分類器模型/189
∣6.10.6 運(yùn)行程序:評估模型/190
∣6.10.7 擴(kuò)展:全連接網(wǎng)絡(luò)的優(yōu)化/190
6.11 實(shí)例28:在T2T框架中用tf.layers接口實(shí)現(xiàn)MNIST數(shù)據(jù)集分類/191
∣6.11.1 代碼實(shí)現(xiàn):查看T2T框架中的數(shù)據(jù)集(problems)/191
∣6.11.2 代碼實(shí)現(xiàn):構(gòu)建T2T框架的工作路徑及下載數(shù)據(jù)集/192
∣6.11.3 代碼實(shí)現(xiàn):在T2T框架中搭建自定義卷積網(wǎng)絡(luò)模型/193
∣6.11.4 代碼實(shí)現(xiàn):用動態(tài)圖方式訓(xùn)練自定義模型/194
∣6.11.5 代碼實(shí)現(xiàn):在動態(tài)圖中用metrics模塊評估模型/195
6.12 實(shí)例29:在T2T框架中,用自定義數(shù)據(jù)集訓(xùn)練中英文翻譯模型/196
∣6.12.1 代碼實(shí)現(xiàn):聲明自己的problems數(shù)據(jù)集/196
∣6.12.2 代碼實(shí)現(xiàn):定義自己的problems數(shù)據(jù)集/197
∣6.12.3 在命令行下生成tfrecoder格式的數(shù)據(jù)/198
∣6.12.4 查找T2T框架中的模型及超參,并用指定的模型及超參進(jìn)行訓(xùn)練/199
∣6.12.5 用訓(xùn)練好的T2T框架模型進(jìn)行預(yù)測/201
∣6.12.6 擴(kuò)展:在T2T框架中,如何選取合適的模型及超參/202
6.13 實(shí)例30:將TensorFlow 1.x中的代碼升級為可用于2.x版本的代碼/203
∣6.13.1 準(zhǔn)備工作:創(chuàng)建Python虛環(huán)境/203
∣6.13.2 使用工具轉(zhuǎn)換源碼/204
∣6.13.3 修改轉(zhuǎn)換后的代碼文件/204
∣6.13.4 將代碼升級到TensorFlow 2.x版本的經(jīng)驗(yàn)總結(jié)/205
∣
第3篇 進(jìn)階
∣
-第7章 特征工程——會說話的數(shù)據(jù)/208
7.1 快速導(dǎo)讀/208
∣7.1.1 特征工程的基礎(chǔ)知識/208
∣7.1.2 離散數(shù)據(jù)特征與連續(xù)數(shù)據(jù)特征/209
∣7.1.3 了解特征列接口/210
∣7.1.4 了解序列特征列接口/210
∣7.1.5 了解弱學(xué)習(xí)器接口——梯度提升樹(TFBT接口)/210
∣7.1.6 了解特征預(yù)處理模塊(tf.Transform)/211
∣7.1.7 了解因子分解模塊/212
∣7.1.8 了解加權(quán)矩陣分解算法/212
∣7.1.9 了解Lattice模塊——點(diǎn)陣模型/213
∣7.1.10 聯(lián)合訓(xùn)練與集成學(xué)習(xí)/214
7.2 實(shí)例31:用wide_deep模型預(yù)測人口收入/214
∣7.2.1 了解人口收入數(shù)據(jù)集/214
∣7.2.2 代碼實(shí)現(xiàn):探索性數(shù)據(jù)分析/217
∣7.2.3 認(rèn)識wide_deep模型/218
∣7.2.4 部署代碼文件/219
∣7.2.5 代碼實(shí)現(xiàn):初始化樣本常量/220
∣7.2.6 代碼實(shí)現(xiàn):生成特征列/220
∣7.2.7 代碼實(shí)現(xiàn):生成估算器模型/222
∣7.2.8 代碼實(shí)現(xiàn):定義輸入函數(shù)/223
∣7.2.9 代碼實(shí)現(xiàn):定義用于導(dǎo)出凍結(jié)圖文件的函數(shù)/224
∣7.2.10 代碼實(shí)現(xiàn):定義類,解析啟動參數(shù)/225
∣7.2.11 代碼實(shí)現(xiàn):訓(xùn)練和測試模型/226
∣7.2.12 代碼實(shí)現(xiàn):使用模型/227
∣7.2.13 運(yùn)行程序/228
7.3 實(shí)例32:用弱學(xué)習(xí)器中的梯度提升樹算法預(yù)測人口收入/229
∣7.3.1 代碼實(shí)現(xiàn):為梯度提升樹模型準(zhǔn)備特征列/230
∣7.3.2 代碼實(shí)現(xiàn):構(gòu)建梯度提升樹模型/230
∣7.3.3 代碼實(shí)現(xiàn):訓(xùn)練并導(dǎo)出梯度提升樹模型/231
∣7.3.4 代碼實(shí)現(xiàn):設(shè)置啟動參數(shù),運(yùn)行程序/232
∣7.3.5 擴(kuò)展:更靈活的TFBT接口/233
7.4 實(shí)例33:用feature_column模塊轉(zhuǎn)換特征列/233
∣7.4.1 代碼實(shí)現(xiàn):用feature_column模塊處理連續(xù)值特征列/234
∣7.4.2 代碼實(shí)現(xiàn):將連續(xù)值特征列轉(zhuǎn)化成離散值特征列/237
∣7.4.3 代碼實(shí)現(xiàn):將離散文本特征列轉(zhuǎn)化為one-hot與詞向量/239
∣7.4.4 代碼實(shí)現(xiàn):根據(jù)特征列生成交叉列/246
7.5 實(shí)例34:用sequence_feature_column接口完成自然語言處理任務(wù)的數(shù)據(jù)預(yù)處理工作/248
∣7.5.1 代碼實(shí)現(xiàn):構(gòu)建模擬數(shù)據(jù)/248
∣7.5.2 代碼實(shí)現(xiàn):構(gòu)建詞嵌入初始值/249
∣7.5.3 代碼實(shí)現(xiàn):構(gòu)建詞嵌入特征列與共享特征列/249
∣7.5.4 代碼實(shí)現(xiàn):構(gòu)建序列特征列的輸入層/250
∣7.5.5 代碼實(shí)現(xiàn):建立會話輸出結(jié)果/251
7.6 實(shí)例35:用factorization模塊的kmeans接口聚類COCO數(shù)據(jù)集中的標(biāo)注框/253
∣7.6.1 代碼實(shí)現(xiàn):設(shè)置要使用的數(shù)據(jù)集/253
∣7.6.2 代碼實(shí)現(xiàn):準(zhǔn)備帶聚類的數(shù)據(jù)樣本/253
∣7.6.3 代碼實(shí)現(xiàn):定義聚類模型/255
∣7.6.4 代碼實(shí)現(xiàn):訓(xùn)練模型/256
∣7.6.5 代碼實(shí)現(xiàn):輸出圖示化結(jié)果/256
∣7.6.6 代碼實(shí)現(xiàn):提取并排序聚類結(jié)果/258
∣7.6.7 擴(kuò)展:聚類與神經(jīng)網(wǎng)絡(luò)混合訓(xùn)練/258
7.7 實(shí)例36:用加權(quán)矩陣分解模型實(shí)現(xiàn)基于電影評分的推薦系統(tǒng)/259
∣7.7.1 下載并加載數(shù)據(jù)集/259
∣7.7.2 代碼實(shí)現(xiàn):根據(jù)用戶和電影特征列生成稀疏矩陣/260
∣7.7.3 代碼實(shí)現(xiàn):建立WALS模型,并對其進(jìn)行訓(xùn)練/261
∣7.7.4 代碼實(shí)現(xiàn):評估WALS模型/263
∣7.7.5 代碼實(shí)現(xiàn):用WALS模型為用戶推薦電影/264
∣7.7.6 擴(kuò)展:使用WALS的估算器接口/265
7.8 實(shí)例37:用Lattice模塊預(yù)測人口收入/265
∣7.8.1 代碼實(shí)現(xiàn):讀取樣本,并創(chuàng)建輸入函數(shù)/266
∣7.8.2 代碼實(shí)現(xiàn):創(chuàng)建特征列,并保存校準(zhǔn)關(guān)鍵點(diǎn)/267
∣7.8.3 代碼實(shí)現(xiàn):創(chuàng)建校準(zhǔn)線性模型/270
∣7.8.4 代碼實(shí)現(xiàn):創(chuàng)建校準(zhǔn)點(diǎn)陣模型/270
∣7.8.5 代碼實(shí)現(xiàn):創(chuàng)建隨機(jī)微點(diǎn)陣模型/271
∣7.8.6 代碼實(shí)現(xiàn):創(chuàng)建集合的微點(diǎn)陣模型/271
∣7.8.7 代碼實(shí)現(xiàn):定義評估與訓(xùn)練函數(shù)/272
∣7.8.8 代碼實(shí)現(xiàn):訓(xùn)練并評估模型/273
∣7.8.9 擴(kuò)展實(shí)例38:將點(diǎn)陣模型嵌入神經(jīng)網(wǎng)絡(luò)中/274
7.9 實(shí)例38:結(jié)合知識圖譜實(shí)現(xiàn)基于電影的推薦系統(tǒng)/278
∣7.9.1 準(zhǔn)備數(shù)據(jù)集/278
∣7.9.2 預(yù)處理數(shù)據(jù)/279
∣7.9.3 搭建MKR模型/279
∣7.9.4 訓(xùn)練模型并輸出結(jié)果/286
7.10 總結(jié):可解釋性算法的意義/286
-
第8章 卷積神經(jīng)網(wǎng)絡(luò)(CNN)——在圖像處理中應(yīng)用最廣泛的模型/287
8.1 快速導(dǎo)讀/287
∣8.1.1 認(rèn)識卷積神經(jīng)網(wǎng)絡(luò)/287
∣8.1.2 什么是空洞卷積/288
∣8.1.3 什么是深度卷積/290
∣8.1.4 什么是深度可分離卷積/290
∣8.1.5 了解卷積網(wǎng)絡(luò)的缺陷及補(bǔ)救方法/291
∣8.1.6 了解膠囊神經(jīng)網(wǎng)絡(luò)與動態(tài)路由/292
∣8.1.7 了解矩陣膠囊網(wǎng)絡(luò)與EM路由算法/297
∣8.1.8 什么是NLP任務(wù)/298
∣8.1.9 了解多頭注意力機(jī)制與內(nèi)部注意力機(jī)制/298
∣8.1.10 什么是帶有位置向量的詞嵌入/300
∣8.1.11 什么是目標(biāo)檢測任務(wù)/300
∣8.1.12 什么是目標(biāo)檢測中的上采樣與下采樣/301
∣8.1.13 什么是圖片分割任務(wù)/301
8.2 實(shí)例39:用膠囊網(wǎng)絡(luò)識別黑白圖中服裝的圖案/302
∣8.2.1 熟悉樣本:了解Fashion-MNIST數(shù)據(jù)集/302
∣8.2.2 下載Fashion-MNIST數(shù)據(jù)集/303
∣8.2.3 代碼實(shí)現(xiàn):讀取及顯示Fashion-MNIST數(shù)據(jù)集中的數(shù)據(jù)/304
∣8.2.4 代碼實(shí)現(xiàn):定義膠囊網(wǎng)絡(luò)模型類CapsuleNetModel/305
∣8.2.5 代碼實(shí)現(xiàn):實(shí)現(xiàn)膠囊網(wǎng)絡(luò)的基本結(jié)構(gòu)/306
∣8.2.6 代碼實(shí)現(xiàn):構(gòu)建膠囊網(wǎng)絡(luò)模型/309
∣8.2.7 代碼實(shí)現(xiàn):載入數(shù)據(jù)集,并訓(xùn)練膠囊網(wǎng)絡(luò)模型/310
∣8.2.8 代碼實(shí)現(xiàn):建立會話訓(xùn)練模型/311
∣8.2.9 運(yùn)行程序/313
∣8.2.10 擴(kuò)展實(shí)例40:實(shí)現(xiàn)帶有EM路由的膠囊網(wǎng)絡(luò)/314
8.3 實(shí)例41:用TextCNN模型分析評論者是否滿意/322
∣8.3.1 熟悉樣本:了解電影評論數(shù)據(jù)集/322
∣8.3.2 熟悉模型:了解TextCNN模型/322
∣8.3.3 數(shù)據(jù)預(yù)處理:用preprocessing接口制作字典/323
∣8.3.4 代碼實(shí)現(xiàn):生成NLP文本數(shù)據(jù)集/326
∣8.3.5 代碼實(shí)現(xiàn):定義TextCNN模型/327
∣8.3.6 代碼實(shí)現(xiàn):訓(xùn)練TextCNN模型/330
∣8.3.7 運(yùn)行程序/332
∣8.3.8 擴(kuò)展:提升模型精度的其他方法/333
8.4 實(shí)例42:用帶注意力機(jī)制的模型分析評論者是否滿意/333
∣8.4.1 熟悉樣本:了解tf.keras接口中的電影評論數(shù)據(jù)集/333
∣8.4.2 代碼實(shí)現(xiàn):將tf.keras接口中的IMDB數(shù)據(jù)集還原成句子/334
∣8.4.3 代碼實(shí)現(xiàn):用tf.keras接口開發(fā)帶有位置向量的詞嵌入層/336
∣8.4.4 代碼實(shí)現(xiàn):用tf.keras接口開發(fā)注意力層/338
∣8.4.5 代碼實(shí)現(xiàn):用tf.keras接口訓(xùn)練模型/340
∣8.4.6 運(yùn)行程序/341
∣8.4.7 擴(kuò)展:用Targeted Dropout技術(shù)進(jìn)一步提升模型的性能/342
8.5 實(shí)例43:搭建YOLO V3模型,識別圖片中的酒杯、水果等物體/343
∣8.5.1 YOLO V3模型的樣本與結(jié)構(gòu)/343
∣8.5.2 代碼實(shí)現(xiàn):Darknet-53 模型的darknet塊/344
∣8.5.3 代碼實(shí)現(xiàn):Darknet-53 模型的下采樣卷積/345
∣8.5.4 代碼實(shí)現(xiàn):搭建Darknet-53模型,并返回3種尺度特征值/345
∣8.5.5 代碼實(shí)現(xiàn):定義YOLO檢測模塊的參數(shù)及候選框/346
∣8.5.6 代碼實(shí)現(xiàn):定義YOLO檢測塊,進(jìn)行多尺度特征融合/347
∣8.5.7 代碼實(shí)現(xiàn):將YOLO檢測塊的特征轉(zhuǎn)化為bbox attrs單元/347
∣8.5.8 代碼實(shí)現(xiàn):實(shí)現(xiàn)YOLO V3的檢測部分/349
∣8.5.9 代碼實(shí)現(xiàn):用非極大值抑制算法對檢測結(jié)果去重/352
∣8.5.10 代碼實(shí)現(xiàn):載入預(yù)訓(xùn)練權(quán)重/355
∣8.5.11 代碼實(shí)現(xiàn):載入圖片,進(jìn)行目標(biāo)實(shí)物的識別/356
∣8.5.12 運(yùn)行程序/358
8.6 實(shí)例44:用YOLO V3模型識別門牌號/359
∣8.6.1 工程部署:準(zhǔn)備樣本/359
∣8.6.2 代碼實(shí)現(xiàn):讀取樣本數(shù)據(jù),并制作標(biāo)簽/359
∣8.6.3 代碼實(shí)現(xiàn):用tf.keras接口構(gòu)建YOLO V3模型,并計(jì)算損失/364
∣8.6.4 代碼實(shí)現(xiàn):在動態(tài)圖中訓(xùn)練模型/368
∣8.6.5 代碼實(shí)現(xiàn):用模型識別門牌號/372
∣8.6.6 擴(kuò)展:標(biāo)注自己的樣本/374
8.7 實(shí)例45:用Mask R-CNN模型定位物體的像素點(diǎn)/375
∣8.7.1 下載COCO數(shù)據(jù)集及安裝pycocotools/376
∣8.7.2 代碼實(shí)現(xiàn):驗(yàn)證pycocotools及讀取COCO數(shù)據(jù)集/377
∣8.7.3 拆分Mask R-CNN模型的處理步驟/383
∣8.7.4 工程部署:準(zhǔn)備代碼文件及模型/385
∣8.7.5 代碼實(shí)現(xiàn):加載數(shù)據(jù)創(chuàng)建模型,并輸出模型權(quán)重/385
∣8.7.6 代碼實(shí)現(xiàn):搭建殘差網(wǎng)絡(luò)ResNet/387
∣8.7.7 代碼實(shí)現(xiàn):搭建Mask R-CNN模型的骨干網(wǎng)絡(luò)ResNet/393
∣8.7.8 代碼實(shí)現(xiàn):可視化Mask R-CNN模型骨干網(wǎng)絡(luò)的特征輸出/396
∣8.7.9 代碼實(shí)現(xiàn):用特征金字塔網(wǎng)絡(luò)處理骨干網(wǎng)絡(luò)特征/400
∣8.7.10 計(jì)算RPN中的錨點(diǎn)/402
∣8.7.11 代碼實(shí)現(xiàn):構(gòu)建RPN/403
∣8.7.12 代碼實(shí)現(xiàn):用非極大值抑制算法處理RPN的結(jié)果/405
∣8.7.13 代碼實(shí)現(xiàn):提取RPN的檢測結(jié)果/410
∣8.7.14 代碼實(shí)現(xiàn):可視化RPN的檢測結(jié)果/412
∣8.7.15 代碼實(shí)現(xiàn):在MaskRCNN類中對ROI區(qū)域進(jìn)行分類/415
∣8.7.16 代碼實(shí)現(xiàn):金字塔網(wǎng)絡(luò)的區(qū)域?qū)R層(ROIAlign)中的區(qū)域框與特征的匹配算法/416
∣8.7.17 代碼實(shí)現(xiàn):在金字塔網(wǎng)絡(luò)的ROIAlign層中按區(qū)域邊框提取內(nèi)容/418
∣8.7.18 代碼實(shí)現(xiàn):調(diào)試并輸出ROIAlign層的內(nèi)部運(yùn)算值/421
∣8.7.19 代碼實(shí)現(xiàn):對ROI內(nèi)容進(jìn)行分類/422
∣8.7.20 代碼實(shí)現(xiàn):用檢測器DetectionLayer檢測ROI內(nèi)容,得到最終的實(shí)物矩形/426
∣8.7.21 代碼實(shí)現(xiàn):根據(jù)ROI內(nèi)容進(jìn)行實(shí)物像素分割/432
∣8.7.22 代碼實(shí)現(xiàn):用Mask R-CNN模型分析圖片/436
∣
8.8 實(shí)例46:訓(xùn)練Mask R-CNN模型,進(jìn)行形狀的識別/439
∣8.8.1 工程部署:準(zhǔn)備代碼文件及模型/440
∣8.8.2 樣本準(zhǔn)備:生成隨機(jī)形狀圖片/440
∣8.8.3 代碼實(shí)現(xiàn):為Mask R-CNN模型添加損失函數(shù)/442
∣8.8.4 代碼實(shí)現(xiàn):為Mask R-CNN模型添加訓(xùn)練函數(shù),使其支持微調(diào)與全網(wǎng)訓(xùn)練/444
∣8.8.5 代碼實(shí)現(xiàn):訓(xùn)練并使用模型/446
∣8.8.6 擴(kuò)展:替換特征提取網(wǎng)絡(luò)/449
-
第9章 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)——處理序列樣本的神經(jīng)網(wǎng)絡(luò)/450
9.1 快速導(dǎo)讀/450
∣9.1.1 什么是循環(huán)神經(jīng)網(wǎng)絡(luò)/450
∣9.1.2 了解RNN模型的基礎(chǔ)單元LSTM與GRU/451
∣9.1.3 認(rèn)識QRNN單元/451
∣9.1.4 認(rèn)識SRU單元/451
∣9.1.5 認(rèn)識IndRNN單元/452
∣9.1.6 認(rèn)識JANET單元/453
∣9.1.7 優(yōu)化RNN模型的技巧/453
∣9.1.8 了解RNN模型中多項(xiàng)式分布的應(yīng)用/453
∣9.1.9 了解注意力機(jī)制的Seq2Seq框架/454
∣9.1.10 了解BahdanauAttention與LuongAttention/456
∣9.1.11 了解單調(diào)注意力機(jī)制/457
∣9.1.12 了解混合注意力機(jī)制/458
∣9.1.13 了解Seq2Seq接口中的采樣接口(Helper)/460
∣9.1.14 了解RNN模型的Wrapper接口/460
∣9.1.15 什么是時(shí)間序列(TFTS)框架/461
∣9.1.16 什么是梅爾標(biāo)度/461
∣9.1.17 什么是短時(shí)傅立葉變換/462
9.2 實(shí)例47:搭建RNN模型,為女孩生成英文名字/463
∣9.2.1 代碼實(shí)現(xiàn):讀取及處理樣本/463
∣9.2.2 代碼實(shí)現(xiàn):構(gòu)建Dataset數(shù)據(jù)集/466
∣9.2.3 代碼實(shí)現(xiàn):用tf.keras接口構(gòu)建生成式RNN模型/467
∣9.2.4 代碼實(shí)現(xiàn):在動態(tài)圖中訓(xùn)練模型/468
∣9.2.5 代碼實(shí)現(xiàn):載入檢查點(diǎn)文件并用模型生成名字/469
∣9.2.6 擴(kuò)展:用RNN模型編寫文章/471
9.3 實(shí)例48:用帶注意力機(jī)制的Seq2Seq模型為圖片添加內(nèi)容描述/471
∣9.3.1 設(shè)計(jì)基于圖片的Seq2Seq/471
∣9.3.2 代碼實(shí)現(xiàn):圖片預(yù)處理——用ResNet提取圖片特征并保存/472
∣9.3.3 代碼實(shí)現(xiàn):文本預(yù)處理——過濾處理、字典建立、對齊與向量化處理/475
∣9.3.4 代碼實(shí)現(xiàn):創(chuàng)建數(shù)據(jù)集/477
∣9.3.5 代碼實(shí)現(xiàn):用tf.keras接口構(gòu)建Seq2Seq模型中的編碼器/477
∣9.3.6 代碼實(shí)現(xiàn):用tf.keras接口構(gòu)建Bahdanau類型的注意力機(jī)制/478
∣9.3.7 代碼實(shí)現(xiàn):搭建Seq2Seq模型中的解碼器Decoder/478
∣9.3.8 代碼實(shí)現(xiàn):在動態(tài)圖中計(jì)算Seq2Seq模型的梯度/480
∣9.3.9 代碼實(shí)現(xiàn):在動態(tài)圖中為Seq2Seq模型添加檢查點(diǎn)功能/480
∣9.3.10 代碼實(shí)現(xiàn):在動態(tài)圖中訓(xùn)練Seq2Seq模型/481
∣9.3.11 代碼實(shí)現(xiàn):用多項(xiàng)式分布采樣獲取圖片的內(nèi)容描述/482
9.4 實(shí)例49:用IndRNN與IndyLSTM單元制作聊天機(jī)器人/485
∣9.4.1 下載及處理樣本/486
∣9.4.2 代碼實(shí)現(xiàn):讀取樣本,分詞并創(chuàng)建字典/487
∣9.4.3 代碼實(shí)現(xiàn):對樣本進(jìn)行向量化、對齊、填充預(yù)處理/489
∣9.4.4 代碼實(shí)現(xiàn):在Seq2Seq模型中加工樣本/489
∣9.4.5 代碼實(shí)現(xiàn):在Seq2Seq模型中,實(shí)現(xiàn)基于IndRNN與IndyLSTM的動態(tài)多層RNN編碼器/491
∣9.4.6 代碼實(shí)現(xiàn):為Seq2Seq模型中的解碼器創(chuàng)建Helper/491
∣9.4.7 代碼實(shí)現(xiàn):實(shí)現(xiàn)帶有Bahdanau注意力、dropout、OutputProjectionWrapper的解碼器/492
∣9.4.8 代碼實(shí)現(xiàn):在Seq2Seq模型中實(shí)現(xiàn)反向優(yōu)化/493
∣9.4.9 代碼實(shí)現(xiàn):創(chuàng)建帶有鉤子函數(shù)的估算器,并進(jìn)行訓(xùn)練/494
∣9.4.10 代碼實(shí)現(xiàn):用估算器框架評估模型/496
∣9.4.11 擴(kuò)展:用注意力機(jī)制的Seq2Seq模型實(shí)現(xiàn)中英翻譯/498
9.5 實(shí)例50:預(yù)測飛機(jī)發(fā)動機(jī)的剩余使用壽命/498
∣9.5.1 準(zhǔn)備樣本/499
∣9.5.2 代碼實(shí)現(xiàn):預(yù)處理數(shù)據(jù)——制作數(shù)據(jù)集的輸入樣本與標(biāo)簽/500
∣9.5.3 代碼實(shí)現(xiàn):建立帶有JANET單元的多層動態(tài)RNN模型/504
∣9.5.4 代碼實(shí)現(xiàn):訓(xùn)練并測試模型/505
∣9.5.5 運(yùn)行程序/507
∣9.5.6 擴(kuò)展:為含有JANET單元的RNN模型添加注意力機(jī)制/508
9.6 實(shí)例51:將動態(tài)路由用于RNN模型,對路透社新聞進(jìn)行分類/509
∣9.6.1 準(zhǔn)備樣本/509
∣9.6.2 代碼實(shí)現(xiàn):預(yù)處理數(shù)據(jù)——對齊序列數(shù)據(jù)并計(jì)算長度/510
∣9.6.3 代碼實(shí)現(xiàn):定義數(shù)據(jù)集/510
∣9.6.4 代碼實(shí)現(xiàn):用動態(tài)路由算法聚合信息/511
∣9.6.5 代碼實(shí)現(xiàn):用IndyLSTM單元搭建RNN模型/513
∣9.6.6 代碼實(shí)現(xiàn):建立會話,訓(xùn)練網(wǎng)絡(luò)/514
∣9.6.7 擴(kuò)展:用分級網(wǎng)絡(luò)將文章(長文本數(shù)據(jù))分類/515
9.7 實(shí)例52:用TFTS框架預(yù)測某地區(qū)每天的出生人數(shù)/515
∣9.7.1 準(zhǔn)備樣本/515
∣9.7.2 代碼實(shí)現(xiàn):數(shù)據(jù)預(yù)處理——制作TFTS框架中的讀取器/515
∣9.7.3 代碼實(shí)現(xiàn):用TFTS框架定義模型,并進(jìn)行訓(xùn)練/516
∣9.7.4 代碼實(shí)現(xiàn):用TFTS框架評估模型/517
∣9.7.5 代碼實(shí)現(xiàn):用模型進(jìn)行預(yù)測,并將結(jié)果可視化/517
∣9.7.6 運(yùn)行程序/518
∣9.7.7 擴(kuò)展:用TFTS框架進(jìn)行異常值檢測/519
9.8 實(shí)例53:用Tacotron模型合成中文語音(TTS)/520
∣9.8.1 準(zhǔn)備安裝包及樣本數(shù)據(jù)/520
∣9.8.2 代碼實(shí)現(xiàn):將音頻數(shù)據(jù)分幀并轉(zhuǎn)為梅爾頻譜/521
∣9.8.3 代碼實(shí)現(xiàn):用多進(jìn)程預(yù)處理樣本并保存結(jié)果/523
∣9.8.4 拆分Tacotron網(wǎng)絡(luò)模型的結(jié)構(gòu)/525
∣9.8.5 代碼實(shí)現(xiàn):搭建CBHG網(wǎng)絡(luò)/527
∣9.8.6 代碼實(shí)現(xiàn):構(gòu)建帶有混合注意力機(jī)制的模塊/529
∣9.8.7 代碼實(shí)現(xiàn):構(gòu)建自定義wrapper/531
∣9.8.8 代碼實(shí)現(xiàn):構(gòu)建自定義采樣器/534
∣9.8.9 代碼實(shí)現(xiàn):構(gòu)建自定義解碼器/537
∣9.8.10 代碼實(shí)現(xiàn):構(gòu)建輸入數(shù)據(jù)集/539
∣9.8.11 代碼實(shí)現(xiàn):構(gòu)建Tacotron網(wǎng)絡(luò)/542
∣9.8.12 代碼實(shí)現(xiàn):構(gòu)建Tacotron網(wǎng)絡(luò)模型的訓(xùn)練部分/545
∣9.8.13 代碼實(shí)現(xiàn):訓(xùn)練模型并合成音頻文件/546
∣9.8.14 擴(kuò)展:用pypinyin模塊實(shí)現(xiàn)文字到聲音的轉(zhuǎn)換/551
-
========第4篇 高級
-
第10章 生成式模型——能夠輸出內(nèi)容的模型/554
10.1 快速導(dǎo)讀/554
∣10.1.1 什么是自編碼網(wǎng)絡(luò)模型/554
∣10.1.2 什么是對抗神經(jīng)網(wǎng)絡(luò)模型/554
∣10.1.3 自編碼網(wǎng)絡(luò)模型與對抗神經(jīng)網(wǎng)絡(luò)模型的關(guān)系/555
∣10.1.4 什么是批量歸一化中的自適應(yīng)模式/555
∣10.1.5 什么是實(shí)例歸一化/556
∣10.1.6 了解SwitchableNorm及更多的歸一化方法/556
∣10.1.7 什么是圖像風(fēng)格轉(zhuǎn)換任務(wù)/557
∣10.1.8 什么是人臉屬性編輯任務(wù)/558
∣10.1.9 什么是TFgan框架/558
10.2 實(shí)例54:構(gòu)建DeblurGAN模型,將模糊相片變清晰/559
∣10.2.1 獲取樣本/559
∣10.2.2 準(zhǔn)備SwitchableNorm算法模塊/560
∣10.2.3 代碼實(shí)現(xiàn):構(gòu)建DeblurGAN中的生成器模型/560
∣10.2.4 代碼實(shí)現(xiàn):構(gòu)建DeblurGAN中的判別器模型/562
∣10.2.5 代碼實(shí)現(xiàn):搭建DeblurGAN的完整結(jié)構(gòu)/563
∣10.2.6 代碼實(shí)現(xiàn):引入庫文件,定義模型參數(shù)/563
∣10.2.7 代碼實(shí)現(xiàn):定義數(shù)據(jù)集,構(gòu)建正反向模型/564
∣10.2.8 代碼實(shí)現(xiàn):計(jì)算特征空間損失,并將其編譯到生成器模型的訓(xùn)練模型中/566
∣10.2.9 代碼實(shí)現(xiàn):按指定次數(shù)訓(xùn)練模型/568
∣10.2.10 代碼實(shí)現(xiàn):用模型將模糊相片變清晰/569
∣10.2.11 練習(xí)題/572
∣10.2.12 擴(kuò)展:DeblurGAN模型的更多妙用/572
10.3 實(shí)例55:構(gòu)建AttGAN模型,對照片進(jìn)行加胡子、加頭簾、加眼鏡、變年輕等修改/573
∣10.3.1 獲取樣本/573
∣10.3.2 了解AttGAN模型的結(jié)構(gòu)/574
∣10.3.3 代碼實(shí)現(xiàn):實(shí)現(xiàn)支持動態(tài)圖和靜態(tài)圖的數(shù)據(jù)集工具類/575
∣10.3.4 代碼實(shí)現(xiàn):將CelebA做成數(shù)據(jù)集/577
∣10.3.5 代碼實(shí)現(xiàn):構(gòu)建AttGAN模型的編碼器/581
∣10.3.6 代碼實(shí)現(xiàn):構(gòu)建含有轉(zhuǎn)置卷積的解碼器模型/582
∣10.3.7 代碼實(shí)現(xiàn):構(gòu)建AttGAN模型的判別器模型部分/584
∣10.3.8 代碼實(shí)現(xiàn):定義模型參數(shù),并構(gòu)建AttGAN模型/585
∣10.3.9 代碼實(shí)現(xiàn):定義訓(xùn)練參數(shù),搭建正反向模型/587
∣10.3.10 代碼實(shí)現(xiàn):訓(xùn)練模型/592
∣10.3.11 擴(kuò)展實(shí)例56:為人臉添加不同的眼鏡/595
∣10.3.12 擴(kuò)展:AttGAN模型的局限性/597
10.4 實(shí)例57:用RNN.WGAN模型模擬生成惡意請求/597
∣10.4.1 獲取樣本:通過Panabit設(shè)備獲取惡意請求樣本/597
∣10.4.2 了解RNN.WGAN模型/600
∣10.4.3 代碼實(shí)現(xiàn):構(gòu)建RNN.WGAN模型/601
∣10.4.4 代碼實(shí)現(xiàn):訓(xùn)練指定長度的RNN.WGAN模型/607
∣10.4.5 代碼實(shí)現(xiàn):用長度依次遞增的方式訓(xùn)練模型/612
∣10.4.6 運(yùn)行代碼/613
∣10.4.7 擴(kuò)展:模型的使用及優(yōu)化/614
-
第11章 模型的攻與防——看似智能的AI也有脆弱的一面/616
11.1 快速導(dǎo)讀/616
∣11.1.1 什么是FGSM方法/616
∣11.1.2 什么是cleverhans模塊/616
∣11.1.3 什么是黑箱攻擊/617
∣11.1.4 什么是基于雅可比矩陣的數(shù)據(jù)增強(qiáng)方法/618
∣11.1.5 什么是數(shù)據(jù)中毒攻擊/620
11.2 實(shí)例58:用FGSM方法生成樣本,并攻擊PNASNet模型,讓其將“狗”識別成“盤子”/621
∣11.2.1 代碼實(shí)現(xiàn):創(chuàng)建PNASNet模型/621
∣11.2.2 代碼實(shí)現(xiàn):搭建輸入層并載入圖片,復(fù)現(xiàn)PNASNet模型的預(yù)測效果/623
∣11.2.3 代碼實(shí)現(xiàn):調(diào)整參數(shù),定義圖片的變化范圍/624
∣11.2.4 代碼實(shí)現(xiàn):用梯度下降方式生成對抗樣本/625
∣11.2.5 代碼實(shí)現(xiàn):用生成的樣本攻擊模型/626
∣11.2.6 擴(kuò)展:如何防范攻擊模型的行為/627
∣11.2.7 代碼實(shí)現(xiàn):將數(shù)據(jù)增強(qiáng)方式用在使用場景,以加固PNASNet模型,防范攻擊/627
11.3 實(shí)例59:擊破數(shù)據(jù)增強(qiáng)防護(hù),制作抗旋轉(zhuǎn)對抗樣本/629
∣11.3.1 代碼實(shí)現(xiàn):對輸入的數(shù)據(jù)進(jìn)行多次旋轉(zhuǎn)/629
∣11.3.2 代碼實(shí)現(xiàn):生成并保存魯棒性更好的對抗樣本/630
∣11.3.3 代碼實(shí)現(xiàn):在PNASNet模型中比較對抗樣本的效果/631
11.4 實(shí)例60:以黑箱方式攻擊未知模型/633
∣11.4.1 準(zhǔn)備工程代碼/633
∣11.4.2 代碼實(shí)現(xiàn):搭建通用模型框架/634
∣11.4.3 代碼實(shí)現(xiàn):搭建被攻擊模型/637
∣11.4.4 代碼實(shí)現(xiàn):訓(xùn)練被攻擊模型/638
∣11.4.5 代碼實(shí)現(xiàn):搭建替代模型/639
∣11.4.6 代碼實(shí)現(xiàn):訓(xùn)練替代模型/639
∣11.4.7 代碼實(shí)現(xiàn):黑箱攻擊目標(biāo)模型/641
∣11.4.8 擴(kuò)展:利用黑箱攻擊中的對抗樣本加固模型/645
-
=====第5篇 實(shí)戰(zhàn)——深度學(xué)習(xí)實(shí)際應(yīng)用
-
第12章 TensorFlow模型制作——一種功能,多種身份/648
12.1 快速導(dǎo)讀/648
∣12.1.1 詳細(xì)分析檢查點(diǎn)文件/648
∣12.1.2 什么是模型中的凍結(jié)圖/649
∣12.1.3 什么是TF Serving模塊與saved_model模塊/649
∣12.1.4 用編譯子圖(defun)提升動態(tài)圖的執(zhí)行效率/649
∣12.1.5 什么是TF_Lite模塊/652
∣12.1.6 什么是TFjs-converter模塊/653
12.2 實(shí)例61:在源碼與檢查點(diǎn)文件分離的情況下,對模型進(jìn)行二次訓(xùn)練/653
∣12.2.1 代碼實(shí)現(xiàn):在線性回歸模型中,向檢查點(diǎn)文件中添加指定節(jié)點(diǎn)/654
∣12.2.2 代碼實(shí)現(xiàn):在脫離源碼的情況下,用檢查點(diǎn)文件進(jìn)行二次訓(xùn)練/657
∣12.2.3 擴(kuò)展:更通用的二次訓(xùn)練方法/659
12.3 實(shí)例62:導(dǎo)出/導(dǎo)入凍結(jié)圖文件/661
∣12.3.1 熟悉TensorFlow中的freeze_graph工具腳本/661
∣12.3.2 代碼實(shí)現(xiàn):從線性回歸模型中導(dǎo)出凍結(jié)圖文件/662
∣12.3.3 代碼實(shí)現(xiàn):導(dǎo)入凍結(jié)圖,并用模型進(jìn)行預(yù)測/664
12.4 實(shí)例63:逆向分析凍結(jié)圖模型/665
∣12.4.1 使用import_to_tensorboard工具/666
∣12.4.2 用TensorBoard工具查看模型結(jié)構(gòu)/666
12.5 實(shí)例64:用saved_model模塊導(dǎo)出與導(dǎo)入模型文件/668
∣12.5.1 代碼實(shí)現(xiàn):用saved_model模塊導(dǎo)出模型文件/668
∣12.5.2 代碼實(shí)現(xiàn):用saved_model模塊導(dǎo)入模型文件/669
∣12.5.3 擴(kuò)展:用saved_model模塊導(dǎo)出帶有簽名的模型文件/670
12.6 實(shí)例65:用saved_model_cli工具查看及使用saved_model模型/672
∣12.6.1 用show參數(shù)查看模型/672
∣12.6.2 用run參數(shù)運(yùn)行模型/673
∣12.6.3 擴(kuò)展:了解scan參數(shù)的黑名單機(jī)制/674
∣12.7 實(shí)例66:用TF-Hub庫導(dǎo)入、導(dǎo)出詞嵌入模型文件/674
∣12.7.1 代碼實(shí)現(xiàn):模擬生成通用詞嵌入模型/674
∣12.7.2 代碼實(shí)現(xiàn):用TF-Hub庫導(dǎo)出詞嵌入模型/675
∣12.7.3 代碼實(shí)現(xiàn):導(dǎo)出TF-Hub模型/678
∣12.7.4 代碼實(shí)現(xiàn):用TF-Hub庫導(dǎo)入并使用詞嵌入模型/680
-
第13章 部署TensorFlow模型——模型與項(xiàng)目的深度結(jié)合/681
13.1 快速導(dǎo)讀/681
∣13.1.1 什么是gRPC服務(wù)與HTTP/REST API/681
∣13.1.2 了解TensorFlow對移動終端的支持/682
∣13.1.3 了解樹莓派上的人工智能/683
13.2 實(shí)例67:用TF_Serving部署模型并進(jìn)行遠(yuǎn)程使用/684
∣13.2.1 在Linux系統(tǒng)中安裝TF_Serving/684
∣13.2.2 在多平臺中用Docker安裝TF_Serving/685
∣13.2.3 編寫代碼:固定模型的簽名信息/686
∣13.2.4 在Linux中開啟TF_Serving服務(wù)/688
∣13.2.5 編寫代碼:用gRPC訪問遠(yuǎn)程TF_Serving服務(wù)/689
∣13.2.6 用HTTP/REST API訪問遠(yuǎn)程TF_Serving服務(wù)/691
∣13.2.7 擴(kuò)展:關(guān)于TF_Serving的更多例子/694
13.3 實(shí)例68:在安卓手機(jī)上識別男女/694
∣13.3.1 準(zhǔn)備工程代碼/694
∣13.3.2 微調(diào)預(yù)訓(xùn)練模型/695
∣13.3.3 搭建安卓開發(fā)環(huán)境/698
∣13.3.4 制作lite模型文件/701
∣13.3.5 修改分類器代碼,并運(yùn)行APP/702
13.4 實(shí)例69:在iPhone手機(jī)上識別男女并進(jìn)行活體檢測/703
∣13.4.1 搭建iOS開發(fā)環(huán)境/703
∣13.4.2 布署工程代碼并編譯/704
∣13.4.3 載入Lite模型,實(shí)現(xiàn)識別男女功能/706
∣13.4.4 代碼實(shí)現(xiàn):調(diào)用攝像頭并采集視頻流/707
∣13.4.5 代碼實(shí)現(xiàn):提取人臉特征/710
∣13.4.6 活體檢測算法介紹/712
∣13.4.7 代碼實(shí)現(xiàn):實(shí)現(xiàn)活體檢測算法/713
∣13.4.8 代碼實(shí)現(xiàn):完成整體功能并運(yùn)行程序/714
13.5 實(shí)例70:在樹莓派上搭建一個(gè)目標(biāo)檢測器/717
∣13.5.1 安裝樹莓派系統(tǒng)/718
∣13.5.2 在樹莓派上安裝TensorFlow/721
∣13.5.3 編譯并安裝Protobuf/725
∣13.5.4 安裝OpenCV/726
∣13.5.5 下載目標(biāo)檢測模型SSDLite/726
∣13.5.6 代碼實(shí)現(xiàn):用SSDLite 模型進(jìn)行目標(biāo)檢測/727
-
第14章 商業(yè)實(shí)例——科技源于生活,用于生活/730
14.1 實(shí)例71:將特征匹配技術(shù)應(yīng)用在商標(biāo)識別領(lǐng)域/730
∣14.1.1 項(xiàng)目背景/730
∣14.1.2 技術(shù)方案/730
∣14.1.3 預(yù)處理圖片——統(tǒng)一尺寸/731
∣14.1.4 用自編碼網(wǎng)絡(luò)加夾角余弦實(shí)現(xiàn)商標(biāo)識別/731
∣14.1.5 用卷積網(wǎng)絡(luò)加triplet-loss提升特征提取效果/731
∣14.1.6 進(jìn)一步的優(yōu)化空間/732
14.2 實(shí)例72:用RNN抓取蠕蟲病毒/732
∣14.2.1 項(xiàng)目背景/733
∣14.2.2 判斷是否惡意域名不能只靠域名/733
∣14.2.3 如何識別惡意域名/733
14.3 實(shí)例73:迎賓機(jī)器人的技術(shù)關(guān)注點(diǎn)——體驗(yàn)優(yōu)先/734
∣14.3.1 迎賓機(jī)器人的產(chǎn)品背景/734
∣14.3.2 迎賓機(jī)器人的實(shí)現(xiàn)方案/734
∣14.3.3 迎賓機(jī)器人的同類產(chǎn)品/736
14.4 實(shí)例74:基于攝像頭的路邊停車場項(xiàng)目/737
∣14.4.1 項(xiàng)目背景/737
∣14.4.2 技術(shù)方案/738
∣14.4.3 方案缺陷/738
∣14.4.4 工程化補(bǔ)救方案/738
14.5 實(shí)例75:智能冰箱產(chǎn)品——硬件成本之痛/739
∣14.5.1 智能冰箱系列的產(chǎn)品背景/739
∣14.5.2 智能冰箱的技術(shù)基礎(chǔ)/740
∣14.5.3 真實(shí)的非功能性需求——低成本/740
∣14.5.4 未來的技術(shù)趨勢及應(yīng)對策略/741