HuggingFace自然語言處理詳解(基于BERT中文模型的任務實戰(zhàn))/計算機技術開發(fā)與應用叢書
定 價:69 元
叢書名:計算機技術開發(fā)與應用叢書
- 作者:李福林著
- 出版時間:2023/4/1
- ISBN:9787302628538
- 出 版 社:清華大學出版社
- 中圖法分類:TP391
- 頁碼:226
- 紙張:
- 版次:1
- 開本:16開
本書綜合性講解HuggingFace社區(qū)提供的工具集datasets和transformers,書中包括最基礎的工具集的用例演示,具體的項目實戰(zhàn),以及預訓練模型的底層設計思路和實現(xiàn)原理的介紹。通過本書的學習,讀者可以快速掌握HuggingFace工具集的使用方法,掌握自然語言處理項目的一般研發(fā)流程,并能研發(fā)自己的自然語言處理項目。
本書分為3篇共14章:工具集基礎用例演示篇(第1~6章),詳細講解HuggingFace工具集的基本使用目的一般流程;預訓練模型底層原理篇(第13、14章),詳細闡述了預訓練模型的設計思路和計算原理。
本書將使用最簡單淺顯的語言,帶領讀者快速了解HuggingFace工具集的使用方法。通過本書實戰(zhàn)項目的學習,讀者可以掌握一般的自然語言處理項目的研發(fā)流程。通過本書預訓練模型底層原理的學習,讀者能夠知其然也知其所以然,做到融會貫通。方法;中文項目實戰(zhàn)篇(第7~12章),通過幾個實戰(zhàn)項目演示使用HuggingFace工具集研發(fā)自然語言處理項
本書適合有PyTorch編程基礎的讀者閱讀,也適合作為對自然語言處理感興趣的讀者的參考圖書。
李福林,一個在IT領域摸爬滾打十多年的老程序員、培訓師,精通多種IT技術,具有軟件設計師職稱。分享了多部AI技術教程,受到了讀者的廣泛贊譽,F(xiàn)任職于陽獅集團,擔任算法工程師職位。教學風格追求化繁為簡,務實而不空談,課程設計思路清晰,課程演繹說理透徹,對A領域技術有自己獨到的見解。
工具集基礎用例演示篇
第1章 HuggingFace簡介
第2章 使用編碼工具
2.1 編碼工具簡介
2.2 編碼工具工作流示意
2.3 使用編碼工具
2.4 小結
第3章 使用數(shù)據(jù)集工具
3.1 數(shù)據(jù)集工具介紹
3.2 使用數(shù)據(jù)集工具
3.2.1 數(shù)據(jù)集加載和保存
3.2.2 數(shù)據(jù)集基本操作
3.2.3 將數(shù)據(jù)集保存為其他格式
3.3 小結
第4章 使用評價指標工具
4.1 評價指標工具介紹
4.2 使用評價指標工具
4.3 小結
第5章 使用管道工具
5.1 管道工具介紹
5.2 使用管道工具
5.2.1 常見任務演示
5.2.2 替換模型執(zhí)行任務
5.3 小結
第6章 使用訓練工具
6.1 訓練工具介紹
6.2 使用訓練工具
6.2.1 準備數(shù)據(jù)集
6.2.2 定義模型和訓練工具
6.2.3 訓練和測試
6.3 小結
中文項目實戰(zhàn)篇
第7章 實戰(zhàn)任務1:中文情感分類
7.1 任務簡介
7.2 數(shù)據(jù)集介紹
7.3 模型架構
7.4 實現(xiàn)代碼
7.4.1 準備數(shù)據(jù)集
7.4.2 定義模型
7.4.3 訓練和測試
7.5 小結
第8章 實戰(zhàn)任務2:中文填空
8.1 任務簡介
8.2 數(shù)據(jù)集介紹
8.3 模型架構
8.4 實現(xiàn)代碼
8.4.1 準備數(shù)據(jù)集
8.4.2 定義模型
8.4.3 訓練和測試
8.5 小結
第9章 實戰(zhàn)任務3:中文句子關系推斷
9.1 任務簡介
9.2 數(shù)據(jù)集介紹
9.3 模型架構
9.4 實現(xiàn)代碼
9.4.1 準備數(shù)據(jù)集
9.4.2 定義模型
9.4.3 訓練和測試
9.5 小結
第10章 實戰(zhàn)任務4:中文命名實體識別
10.1 任務簡介
10.2 數(shù)據(jù)集介紹
10.3 模型架構
10.4 實現(xiàn)代碼
10.4.1 準備數(shù)據(jù)集
10.4.2 定義模型
10.4.3 訓練和測試
10.5 小結
第11章 使用TensorFlow訓練
11.1 任務簡介
11.2 數(shù)據(jù)集介紹
11.3 模型架構
11.4 實現(xiàn)代碼
11.4.1 準備數(shù)據(jù)集
11.4.2 定義模型
11.4.3 訓練和測試
11.5 小結
第12章 使用自動模型
12.1 任務簡介
12.2 數(shù)據(jù)集介紹
12.3 模型架構
12.4 實現(xiàn)代碼
12.4.1 準備數(shù)據(jù)集
12.4.2 加載自動模型
12.4.3 訓練和測試
12.5 深入自動模型源代碼
12.6 小結
預訓練模型底層原理篇
第13章 手動實現(xiàn)Transformer
13.1 Transformer架構
13.2 注意力
13.2.1 為什么需要注意力
13.2.2 注意力的計算過程
13.2.3 注意力計算的矩陣形式
13.2.4 多頭注意力
13.3 位置編碼
13.3.1 為什么需要位置編碼
13.3.2 位置編碼計算過程
13.4 MASK
13.4.1 PAD MASK
13.4.2 上三角MASK
13.5 Transformer計算流程
13.5.1 編碼器
13.5.2 整體計算流程
13.5.3 解碼器解碼過程詳細講解
13.5.4 總體架構
13.6 簡單翻譯任務
13.6.1 任務介紹
13.6.2 定義數(shù)據(jù)集
13.6.3 定義MASK函數(shù)
13.6.4 定義Transformer工具子層
13.6.5 定義Transformer模型
13.6.6 訓練和測試
13.7 兩數(shù)相加任務
13.7.1 任務介紹
13.7.2 實現(xiàn)代碼
13.7.3 訓練和測試
13.8 小結
第14章 手動實現(xiàn)BERT
14.1 BERT架構
14.2 數(shù)據(jù)集處理
14.2.1 數(shù)據(jù)處理過程概述
14.2.2 數(shù)據(jù)集介紹
14.2.3 數(shù)據(jù)處理實現(xiàn)代碼
14.3 PyTorch提供的Transformer工具層介紹
14.4 手動實現(xiàn)BERT模型
14.4.1 準備數(shù)據(jù)集
14.4.2 定義輔助函數(shù)
14.4.3 定義BERT模型
14.4.4 訓練和測試
14.5 小結