Transformer自然語言處理實(shí)戰(zhàn):使用Hugging Face Transformers庫構(gòu)建NLP應(yīng)用
定 價(jià):¥139
中 教 價(jià):¥83.40 (6.00折)
庫 存 數(shù): 9
本書涵蓋了Transformer在NLP領(lǐng)域的主要應(yīng)用。首先介紹Transformer模型和Hugging Face 生態(tài)系統(tǒng)。然后重點(diǎn)介紹情感分析任務(wù)以及Trainer API、Transformer的架構(gòu),并講述了在多語言中識(shí)別文本內(nèi)實(shí)體的任務(wù),以及Transformer模型生成文本的能力,還介紹了解碼策略和度量指標(biāo)。接著深入挖掘了文本摘要這個(gè)復(fù)雜的序列到序列的任務(wù),并介紹了用于此任務(wù)的度量指標(biāo)。之后聚焦于構(gòu)建基于評(píng)論的問答系統(tǒng),介紹如何基于Haystack進(jìn)行信息檢索,探討在缺乏大量標(biāo)注數(shù)據(jù)的情況下提高模型性能的方法。最后展示如何從頭開始構(gòu)建和訓(xùn)練用于自動(dòng)填充Python源代碼的模型,并總結(jié)Transformer面臨的挑戰(zhàn)以及將這個(gè)模型應(yīng)用于其他領(lǐng)域的一些新研究。
自Transformer在2017年發(fā)布以來,自然語言處理領(lǐng)域就邁入了 一個(gè)全新的時(shí)代。以Transformer為基礎(chǔ)的模型,不斷推動(dòng)著自 然語言處理技術(shù)的進(jìn)步與革新。如今隨著ChatGPT的發(fā)布與流行,Transformer也被越來越多的人所了解和使用。 本書以Hugging Face Transformers庫為基礎(chǔ),旨在向讀者介紹Transformer模型的基礎(chǔ)知識(shí)和快速入門方式,幫助讀者完成訓(xùn)練和擴(kuò)展。三位作者都是Hugging Face Transformers的創(chuàng)建者,深諳Transformer的原理與架構(gòu),將通過實(shí)際案例手把手地幫助讀者構(gòu)建各種自然語言處理任務(wù),并不斷挖掘Transformer的無限潛力,從而實(shí)現(xiàn)更廣泛的應(yīng)用和創(chuàng)新。 通過本書,你將: ? 以NLP領(lǐng)域最具代表性的任務(wù)(文本分類、命名實(shí)體識(shí)別和問答系統(tǒng))為例,學(xué)習(xí)構(gòu)建、調(diào)試和優(yōu)化Transformer模型。 ? 了解Transformer如何應(yīng)用于跨語言遷移學(xué)習(xí)。 ? 學(xué)習(xí)如何在標(biāo)注數(shù)據(jù)稀缺的場(chǎng)景中應(yīng)用Transformer。 ? 使用蒸餾、剪枝和量化等技術(shù)優(yōu)化Transformer。 ? 學(xué)習(xí)如何對(duì)Transformer做分布式并行訓(xùn)練。
Lewis Tunstall是Hugging Face機(jī)器學(xué)習(xí)工程師,致力于為NLP社區(qū)開發(fā)實(shí)用工具,并幫助人們更好地使用這些工具。 Leandro von Werra是Hugging Face機(jī)器學(xué)習(xí)工程師,致力于代碼生成模型的研究與社區(qū)推廣工作。 Thomas Wolf是Hugging Face首席科學(xué)官兼聯(lián)合創(chuàng)始人,他的團(tuán)隊(duì)肩負(fù)著促進(jìn)AI研究和普及的使命。
目錄序1前言3第1章 歡迎來到Transformer的世界111.1 編碼器-解碼器框架121.2 注意力機(jī)制141.3 NLP的遷移學(xué)習(xí)151.4 Hugging FaceTransformers庫:提供規(guī)范化接口181.5 Transformer應(yīng)用概覽191.6 Hugging Face生態(tài)系統(tǒng)231.7 Transformer的主要挑戰(zhàn)271.8 本章小結(jié)27第2章 文本分類292.1 數(shù)據(jù)集302.2 將文本轉(zhuǎn)換成詞元362.3 訓(xùn)練文本分類器442.4 本章小結(jié)60第3章 Transformer架構(gòu)剖析623.1 Transformer架構(gòu)623.2 編碼器643.3 解碼器793.4 認(rèn)識(shí)Transformer813.5本章小結(jié)87第4章 多語言命名實(shí)體識(shí)別884.1 數(shù)據(jù)集894.2 多語言Transformer934.3 多語言詞元化技術(shù)944.4 命名實(shí)體識(shí)別中的Transformers964.5 自定義Hugging Face Transformers庫模型類984.6 NER的詞元化1034.7 性能度量1054.8 微調(diào)XLM-RoBERTa1064.9 錯(cuò)誤分析1084.10 跨語言遷移1144.11 用模型小部件進(jìn)行交互1204.12 本章小結(jié)121第5章 文本生成1225.1 生成連貫文本的挑戰(zhàn)1235.2 貪婪搜索解碼1255.3 束搜索解碼1295.4 采樣方法1325.5 top-k和核采樣1345.6 哪種解碼方法最好1365.7 本章小結(jié)137第6章 文本摘要1386.1 CNN/DailyMail數(shù)據(jù)集1386.2 文本摘要pipeline1396.3 比較不同的摘要1436.4 度量生成文本的質(zhì)量1446.5 在CNN/DailyMail數(shù)據(jù)集上評(píng)估PEGASUS1506.6 訓(xùn)練摘要模型1526.7 本章小結(jié)158第7章 構(gòu)建問答系統(tǒng)1607.1 構(gòu)建基于評(píng)論的問答系統(tǒng)1617.2 評(píng)估并改進(jìn)問答pipeline1837.3 生成式問答1967.4 本章小結(jié)199第8章 Transformer模型調(diào)優(yōu)2018.1 以意圖識(shí)別為例2018.2 創(chuàng)建性能基準(zhǔn)2038.3 通過知識(shí)蒸餾減小模型大小2088.4 利用量化技術(shù)使模型運(yùn)算更快2208.5 基準(zhǔn)測(cè)試量化模型2258.6 使用ONNX和ONNX Runtime進(jìn)行推理優(yōu)化2268.7 使用權(quán)重剪枝使模型更稀疏2318.8 本章小結(jié)235第9章 零樣本學(xué)習(xí)和少樣本學(xué)習(xí)2369.1 構(gòu)建GitHub issue標(biāo)記任務(wù)2389.2 基線模型樸素貝葉斯2459.3 零樣本學(xué)習(xí)2489.4 少樣本學(xué)習(xí)2569.5 利用無標(biāo)注數(shù)據(jù)2729.6 本章小結(jié)278第10章 從零訓(xùn)練Transformer模型28010.1 如何尋找大型數(shù)據(jù)集28110.2 構(gòu)建詞元分析器29010.3 從零訓(xùn)練一個(gè)模型30110.4 結(jié)果與分析31510.5 本章小結(jié)319第11章 未來發(fā)展趨勢(shì)32111.1 Transformer的擴(kuò)展32111.2 其他應(yīng)用領(lǐng)域32911.3 多模態(tài)的Transformer33411.4 繼續(xù)前行的建議342