內容大鋼
本書以人文與科技交融的筆觸,引領讀者穿越語言與智能交織的文明長河。從人類語言的起源與數字時代的語言變革切入,本書不僅解析了自然語言處理技術的演進脈絡,更以Transformer架構為錨點,層層揭開大語言模型從數學原理到工程實踐的神秘面紗。書中既有Transformer架構、GPT/BERT等里程碑模型的深度拆解,亦不乏情感分析、跨語言處理等前沿場景的實戰指南,更以Hugging Face生態與LoRA微調、RAG系統開發等硬核技術,為讀者搭建起從理論到落地的完整橋樑。在理性與詩意的交織中,本書不僅是一部技術手冊,更是一扇通向人機協同未來的窗口。
本書適合對人工智慧和自然語言處理感興趣的開發者、研究者及技術愛好者閱讀,通過深入淺出的講解和豐富實戰案例,幫助讀者從零基礎快速掌握大語言模型的核心技術與應用實踐。
目錄
第1章 從語言到智能
1.1 語言的起源
1.1.1 人類語言的起源
1.1.2 語言發展中的重要里程碑
1.2 語言在信息社會中的重要性
1.2.1 數字化時代中的語言變革
1.2.2 社交媒體對語言的影響
1.3 人工智慧時代的語言技術
1.3.1 自然語言處理的定義和應用範圍
1.3.2 機器翻譯與自然語言生成技術
第2章 走近大語言模型
2.1 Transformer:自然語言處理的新趨勢
2.1.1 文本分類
2.1.2 自然語言推理
2.1.3 語義相似度計算
2.1.4 命名實體識別
2.1.5 摘要生成
2.2 Transformer初體驗:大模型的前世今生
2.2.1 Transformer工作原理淺析
2.2.2 代碼示例:Transformer文本處理
2.3 詞嵌入和神經網路:大語言模型的基石
2.3.1 詞嵌入的奇妙世界
2.3.2 詞嵌入與神經網路的融合
2.3.3 神奇的注意力機制
2.3.4 像素級Query-Key-Value機制詳解
2.4 大語言模型:數學的韻律,文本的樂章
2.4.1 從神經網路到大語言模型的演進
2.4.2 大語言模型的概念
2.4.3 大語言模型的架構和特點
第3章 深入理解Transformer核心
3.1 Transformer模型剖析:揭示內核機制
3.1.1 Transformer模型概述
3.1.2 引入編碼器與解碼器
3.2 編碼器:文本信息的變換引擎
3.2.1 詞嵌入和位置編碼
3.2.2 自注意力機制和多頭注意力機制
3.2.3 前饋神經網路層和殘差連接
3.2.4 Dropout正則化機制
3.3 編碼器+解碼器:信息傳遞與生成的精華
3.3.1 交叉注意力機制和輸出分佈計算
3.3.2 掩蔽處理和序列生成
3.4 解碼器:文本生成的要訣
3.4.1 省略交叉注意力機制
3.4.2 自回歸生成任務的應用
3.5 像素級Transformer詳解:中譯英為例
第4章 大語言模型技術精要
4.1 文本解析:語言預測之道探索
4.1.1 文字預測的基本原理
4.1.2 文字預測的學習過程
4.1.3 大模型中的文本預測應用
4.2 GPT:文本生成的靈魂
4.2.1 輸入數據的表示方法
4.2.2 預訓練策略和技術
4.2.3 微調方法和應用
4.2.4 GPT代碼實踐:文本生成
4.3 BERT ﹒RoBERTa:文本編碼的新思路
4.3.1 輸入數據的表示方法
4.3.2 預訓練策略和技術
4.3.3 微調方法和應用
4.3.4 BERT代碼實踐:文本填空
4.4 T5:融合之美 ,文本轉換的全新範式
4.4.1 輸入數據的表示方法
4.4.2 預訓練策略和技術
4.4.3 微調方法和應用
4.4.4 T5代碼實踐:摘要生成
4.5 跨語言模型:多語言處理的新前沿
4.5.1 跨語言模型的優勢和特點
4.5.2 跨語言模型挑戰與策略
4.5.3 多語言模型在實踐中的應用案例
4.6 語言文字處理:微觀視角的文本挖掘
4.6.1 位元組對編碼技術和實踐
4.6.2 WordPiece方法探索和應用
4.6.3 中文文字的處理策略
4.6.4 中文文字處理的前沿探索
4.7 大語言模型的蛻變:技術演進與前瞻展望
4.7.1 模型的提示控制技術
4.7.2 對準技術的重要性
4.7.3 指令微調
4.7.4 ChatGPT與RLHF
4.7.5 DeepSeek
第5章 大語言模型系統開發構建
5.1 Hugging Face基礎:駕馭Transformers
5.1.1 Hugging Face介紹
5.1.2 訪問模型的方式
5.1.3 用Transformers訪問模型
5.2 中文基準測試:窺探性能
5.2.1 數據集組成與構建方法
5.2.2 大模型性能評估指標
5.2.3 CLUE任務與數據集簡介
5.3 實現情感分析模型:探索情感世界的大門
5.3.1 環境搭建與數據準備
5.3.2 數據探索性分析
5.3.3 數據預處理
5.3.4 模型訓練與評估
5.3.5 Early Stopping機制
5.4 情感分析模型的微調分析:情感的微妙之處
5.4.1 查看模型預測的結果
5.4.2 總體趨勢可視化分析
5.4.3 分析模型預測出錯傾向
5.5 指令微調策略:Instructing Tuning
5.5.1 學習數據的獲取
5.5.2 創建學習數據
5.5.3 執行指令微調
5.5.4 語句生成
5.6 發揮硬體極限的微調:策略與技巧
5.6.1 AMP深度學習優化策略
5.6.2 梯度累計策略
5.6.3 梯度檢查點
5.6.4 LoRA微調策略
5.6.5 LoRA微調實現
5.6.6 QLoRA信息壓縮策略
5.6.7 提示微調的策略:平衡成本與性能
第6章 大語言模型核心實踐
6.1 RAG:使用搜索生成語句
6.1.1 什麼是RAG
6.1.2 構建矢量資料庫
6.2 LangChain庫:基礎入門
6.2.1 LangChain介紹
&nb