幫助中心 | 我的帳號 | 關於我們

大語言模型(原理與工程實踐)/通用智能與大模型叢書

  • 作者:編者:楊青|責編:鄭柳潔
  • 出版社:電子工業
  • ISBN:9787121473043
  • 出版日期:2024/03/01
  • 裝幀:平裝
  • 頁數:247
人民幣:RMB 119 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書用10章對大語言模型進行全面且深入的介紹。首先對大語言模型的基本概念進行介紹。其次,從大語言模型的基礎技術、預訓練數據構建、預訓練技術等方面展開討論,幫助讀者深入了解大語言模型的構建和訓練過程。然後,詳細介紹有監督微調和強化對齊等技術,以及如何評估大語言模型的性能。此外,介紹提示工程和工程實踐等方面的內容,幫助讀者了解大語言模型的應用和實際操作過程。最後,介紹如何從零開始微調大語言模型,輔以代碼示例,幫助讀者更好地應用這些技術。
    通過閱讀本書,讀者可以獲得全面且深入的大語言模型的知識框架。無論您是研究人員、工程師,還是產品經理,都能從中獲得有價值的知識。

作者介紹
編者:楊青|責編:鄭柳潔
    楊青,度小滿金融技術委員會執行主席、數據智能應用部總經理,碩士畢業於清華大學電腦系,曾就職于百度、阿里巴巴,從事自然語言處理、搜索、推薦、大數據架構等相關方向的研發工作。     2018年年初加入度小滿金融,組建數據智能部,從0到1構建度小滿金融的智能引擎核心演算法,深耕電腦視覺、自然語言處理、圖模型、機器學習、因果推斷等技術領域,多篇文章被EMNLP、ACL、CIKM等國際會議收錄,「智能化徵信解讀中台」工程榮獲吳文俊人工智慧科技進步獎。相關技術廣泛應用於度小滿營銷、經營、風控、反欺詐全流程業務場景,為上千萬客戶提供穩定、安全的金融服務。

目錄
1  解鎖大語言模型
  1.1  什麼是大語言模型
  1.2  語言模型的發展
  1.3  GPT系列模型的發展
  1.4  大語言模型的關鍵技術
  1.5  大語言模型的湧現能力
  1.6  大語言模型的推理能力
  1.7  大語言模型的縮放定律
  參考文獻
2  大語言模型基礎技術
  2.1  語言表示介紹
    2.1.1  詞表示技術
    2.1.2  分詞技術
  2.2  經典結構Transformer
    2.2.1  輸入模塊
    2.2.2  多頭自注意力模塊
    2.2.3  殘差連接與層歸一化
    2.2.4  前饋神經網路
    2.2.5  解碼器
  2.3  預訓練語言模型
    2.3.1  Decoder的代表:GPT系列
    2.3.2  Encoder的代表:BERT
  2.4  初探大語言模型
    2.4.1  InstructGPT
    2.4.2  LLaMA系列
  參考文獻
3  預訓練數據構建
  3.1  數據的常見類別及其來源
    3.1.1  網頁數據
    3.1.2  書籍數據
    3.1.3  百科數據
    3.1.4  代碼數據
    3.1.5  其他數據
  3.2  數據的預處理方式
    3.2.1  正文提取
    3.2.2  質量過濾
    3.2.3  文檔去重
    3.2.4  數據集凈化
  3.3  常用數據集的完整構建方式
    3.3.1  C4
    3.3.2  MassiveText
    3.3.3  RefinedWeb
    3.3.4  ROOTS
  3.4  難點和挑戰
    3.4.1  數據收集的局限性
    3.4.2  數據質量評估的挑戰
    3.4.3  自動生成數據的風險
  參考文獻
4  大語言模型預訓練
  4.1  大語言模型為什麼這麼強

  4.2  大語言模型的核心模塊
    4.2.1  核心架構
    4.2.2  組成模塊選型
  4.3  大語言模型怎麼訓練
    4.3.1  訓練目標
    4.3.2  數據配比
  4.4  預訓練還有什麼沒有解決
  參考文獻
5  挖掘大語言模型潛能:有監督微調
  5.1  揭開有監督微調的面紗
    5.1.1  什麼是有監督微調
    5.1.2  有監督微調的作用與意義
    5.1.3  有監督微調的應用場景
  5.2  有監督微調數據的構建
    5.2.1  有監督微調數據的格式
    5.2.2  有監督微調數據的自動化構建
    5.2.3  有監督微調數據的選擇
  5.3  大語言模型的微調方法
    5.3.1  全參數微調
    5.3.2  適配器微調
    5.3.3  前綴微調
    5.3.4  提示微調
    5.3.5  低秩適配
  5.4  大語言模型的微調和推理策略
    5.4.1  混合微調策略
    5.4.2  基於上下文學習的推理策略
    5.4.3  基於思維鏈的推理策略
  5.5  大語言模型微調的挑戰和探索
    5.5.1  大語言模型微調的幻覺問題
    5.5.2  大語言模型微調面臨的挑戰
    5.5.3  大語言模型微調的探索與展望
  參考文獻
6  大語言模型強化對齊
  6.1  強化學習基礎
    6.1.1  強化學習的基本概念
    6.1.2  強化學習中的隨機性
    6.1.3  強化學習的目標
    6.1.4  Q函數與V函數
  6.2  DQN方法
    6.2.1  DQN的結構
    6.2.2  DQN訓練:基本思想
    6.2.3  DQN訓練:目標網路
    6.2.4  DQN訓練:探索策略
    6.2.5  DQN訓練:經驗回放
    6.2.6  DQN訓練:完整演算法
    6.2.7  DQN決策
  6.3  策略梯度方法
    6.3.1  策略網路的結構
    6.3.2  策略網路訓練:策略梯度
    6.3.3  策略網路訓練:優勢函數

    6.3.4  PPO演算法
  6.4  揭秘大語言模型中的強化建模
    6.4.1  Token-level強化建模
    6.4.2  Sentence-level強化建模
  6.5  獎勵模型
    6.5.1  獎勵模型的結構
    6.5.2  獎勵模型的訓練
    6.5.3  獎勵模型損失函數分析
  6.6  RLHF
    6.6.1  即時獎勵
    6.6.2  RLHF演算法
  6.7  RLHF實戰框架
  6.8  RLHF的難點和問題
    6.8.1  數據瓶頸
    6.8.2  硬體瓶頸
    6.8.3  方法瓶頸
  參考文獻
7  大語言模型的評測
  7.1  基座語言模型的評測
    7.1.1  主要的評測維度和基準概述
    7.1.2  具體案例:LLaMA 2選取的評測基準
  7.2  大語言模型的對話能力評測
    7.2.1  評測任務
    7.2.2  評測集的構建標準
    7.2.3  評測方式
  7.3  大語言模型的安全性評測
    7.3.1  評測任務
    7.3.2  評測方式和標準
  7.4  行業大語言模型的評測:以金融行業大語言模型為例
    7.4.1  金融行業大語言模型的自動化評測集
    7.4.2  金融行業大語言模型的人工評測集
  7.5  整體能力的評測
  7.6  主流評測數據集及基準
  參考文獻
8  大語言模型的應用
  8.1  大語言模型為什麼需要提示工程
    8.1.1  人類和大語言模型進行複雜決策的對比
    8.1.2  提示工程的作用
  8.2  什麼是提示詞
    8.2.1  提示詞的基礎要素
    8.2.2  提示詞設計的通用原則
  8.3  推理引導
    8.3.1  零樣本提示
    8.3.2  少樣本提示
    8.3.3  思維鏈提示
    8.3.4  自我一致性提示
    8.3.5  思維樹提示
  8.4  動態交互
    8.4.1  檢索增強生成技術
    8.4.2  推理和行動協同技術

  8.5  案例分析
    8.5.1  案例介紹
    8.5.2  工具設計
    8.5.3  提示詞設計
    8.5.4  案例運行
  8.6  局限和發展
    8.6.1  目前的局限
    8.6.2  未來的發展
  參考文獻
9  工程實踐
  9.1  大語言模型訓練面臨的挑戰
  9.2  大語言模型訓練綜述
    9.2.1  數據並行
    9.2.2  模型並行
    9.2.3  ZeRO並行
  9.3  大語言模型訓練技術選型技巧
  9.4  大語言模型訓練優化秘籍
    9.4.1  I/O優化
    9.4.2  通信優化
    9.4.3  穩定性優化
  9.5  大語言模型訓練工程實踐
    9.5.1  DeepSpeed架構
    9.5.2  DeepSpeed訓練詳解
    9.5.3  DeepSpeed訓練調優實踐
  9.6  強化學習工程實踐
    9.6.1  DeepSpeed-Chat混合引擎架構
    9.6.2  DeepSpeed-Chat訓練詳解
    9.6.3  DeepSpeed-Chat訓練調優實踐
  9.7  大語言模型推理工程
    9.7.1  提升規模:模型量
    9.7.2  提高並行度:張量並行
    9.7.3  推理加速:運算元優化
    9.7.4  降低計算量:KV-Cache
    9.7.5  推理工程綜合實踐
  參考文獻
10  手把手教你訓練7B大語言模型
  10.1  自動化訓練框架
    10.1.1  自動化訓練框架介紹
    10.1.2  主要模塊介紹
  10.2  動手訓練7B大語言模型
    10.2.1  語料預處理
    10.2.2  預訓練實踐
    10.2.3  指令微調實踐
  10.3  小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032