幫助中心 | 我的帳號 | 關於我們

大模型技術與構建(從入門到實戰插畫版)

  • 作者:邏輯簡墨|責編:李佳伶
  • 出版社:化學工業
  • ISBN:9787122486769
  • 出版日期:2025/10/01
  • 裝幀:平裝
  • 頁數:215
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書以人文與科技交融的筆觸,引領讀者穿越語言與智能交織的文明長河。從人類語言的起源與數字時代的語言變革切入,本書不僅解析了自然語言處理技術的演進脈絡,更以Transformer架構為錨點,層層揭開大語言模型從數學原理到工程實踐的神秘面紗。書中既有Transformer架構、GPT/BERT等里程碑模型的深度拆解,亦不乏情感分析、跨語言處理等前沿場景的實戰指南,更以Hugging Face生態與LoRA微調、RAG系統開發等硬核技術,為讀者搭建起從理論到落地的完整橋樑。在理性與詩意的交織中,本書不僅是一部技術手冊,更是一扇通向人機協同未來的窗口。
    本書適合對人工智慧和自然語言處理感興趣的開發者、研究者及技術愛好者閱讀,通過深入淺出的講解和豐富實戰案例,幫助讀者從零基礎快速掌握大語言模型的核心技術與應用實踐。

作者介紹
邏輯簡墨|責編:李佳伶

目錄
第1章  從語言到智能
  1.1  語言的起源
    1.1.1  人類語言的起源
    1.1.2  語言發展中的重要里程碑
  1.2  語言在信息社會中的重要性
    1.2.1  數字化時代中的語言變革
    1.2.2  社交媒體對語言的影響
  1.3  人工智慧時代的語言技術
    1.3.1  自然語言處理的定義和應用範圍
    1.3.2  機器翻譯與自然語言生成技術
第2章  走近大語言模型
  2.1  Transformer:自然語言處理的新趨勢
    2.1.1  文本分類
    2.1.2  自然語言推理
    2.1.3  語義相似度計算
    2.1.4  命名實體識別
    2.1.5  摘要生成
  2.2  Transformer初體驗:大模型的前世今生
    2.2.1  Transformer工作原理淺析
    2.2.2  代碼示例:Transformer文本處理
  2.3  詞嵌入和神經網路:大語言模型的基石
    2.3.1  詞嵌入的奇妙世界
    2.3.2  詞嵌入與神經網路的融合
    2.3.3  神奇的注意力機制
    2.3.4  像素級Query-Key-Value機制詳解
  2.4  大語言模型:數學的韻律,文本的樂章
    2.4.1  從神經網路到大語言模型的演進
    2.4.2  大語言模型的概念
    2.4.3  大語言模型的架構和特點
第3章  深入理解Transformer核心
  3.1  Transformer模型剖析:揭示內核機制
    3.1.1  Transformer模型概述
    3.1.2  引入編碼器與解碼器
  3.2  編碼器:文本信息的變換引擎
    3.2.1  詞嵌入和位置編碼
    3.2.2  自注意力機制和多頭注意力機制
    3.2.3  前饋神經網路層和殘差連接
    3.2.4  Dropout正則化機制
  3.3  編碼器+解碼器:信息傳遞與生成的精華
    3.3.1  交叉注意力機制和輸出分佈計算
    3.3.2  掩蔽處理和序列生成
  3.4  解碼器:文本生成的要訣
    3.4.1  省略交叉注意力機制
    3.4.2  自回歸生成任務的應用
  3.5  像素級Transformer詳解:中譯英為例
第4章  大語言模型技術精要
  4.1  文本解析:語言預測之道探索
    4.1.1  文字預測的基本原理
    4.1.2  文字預測的學習過程
    4.1.3  大模型中的文本預測應用

  4.2  GPT:文本生成的靈魂
    4.2.1  輸入數據的表示方法
    4.2.2  預訓練策略和技術
    4.2.3  微調方法和應用
    4.2.4  GPT代碼實踐:文本生成
  4.3  BERT ﹒RoBERTa:文本編碼的新思路
    4.3.1  輸入數據的表示方法
    4.3.2  預訓練策略和技術
    4.3.3  微調方法和應用
    4.3.4  BERT代碼實踐:文本填空
  4.4  T5:融合之美 ,文本轉換的全新範式
    4.4.1  輸入數據的表示方法
    4.4.2  預訓練策略和技術
    4.4.3  微調方法和應用
    4.4.4  T5代碼實踐:摘要生成
  4.5  跨語言模型:多語言處理的新前沿
    4.5.1  跨語言模型的優勢和特點
    4.5.2  跨語言模型挑戰與策略
    4.5.3  多語言模型在實踐中的應用案例
  4.6  語言文字處理:微觀視角的文本挖掘
    4.6.1  位元組對編碼技術和實踐
    4.6.2  WordPiece方法探索和應用
    4.6.3  中文文字的處理策略
    4.6.4  中文文字處理的前沿探索
  4.7  大語言模型的蛻變:技術演進與前瞻展望
    4.7.1  模型的提示控制技術
    4.7.2  對準技術的重要性
    4.7.3  指令微調
    4.7.4  ChatGPT與RLHF
    4.7.5  DeepSeek
第5章  大語言模型系統開發構建
  5.1  Hugging Face基礎:駕馭Transformers
    5.1.1  Hugging Face介紹
    5.1.2  訪問模型的方式
    5.1.3  用Transformers訪問模型
  5.2  中文基準測試:窺探性能
    5.2.1  數據集組成與構建方法
    5.2.2  大模型性能評估指標
    5.2.3  CLUE任務與數據集簡介
  5.3  實現情感分析模型:探索情感世界的大門
    5.3.1  環境搭建與數據準備
    5.3.2  數據探索性分析
    5.3.3  數據預處理
    5.3.4  模型訓練與評估
    5.3.5  Early Stopping機制
  5.4  情感分析模型的微調分析:情感的微妙之處
    5.4.1  查看模型預測的結果
    5.4.2  總體趨勢可視化分析
    5.4.3  分析模型預測出錯傾向
  5.5  指令微調策略:Instructing Tuning

    5.5.1  學習數據的獲取
    5.5.2  創建學習數據
    5.5.3  執行指令微調
    5.5.4  語句生成
  5.6  發揮硬體極限的微調:策略與技巧
    5.6.1  AMP深度學習優化策略
    5.6.2  梯度累計策略
    5.6.3  梯度檢查點
    5.6.4  LoRA微調策略
    5.6.5  LoRA微調實現
    5.6.6  QLoRA信息壓縮策略
    5.6.7  提示微調的策略:平衡成本與性能
第6章  大語言模型核心實踐
  6.1  RAG:使用搜索生成語句
    6.1.1  什麼是RAG
    6.1.2  構建矢量資料庫
  6.2  LangChain庫:基礎入門
    6.2.1  LangChain介紹
&nb