幫助中心 | 我的帳號 | 關於我們

圖解大模型(生成式AI原理與實戰)

  • 作者:(沙特)傑伊·阿拉馬爾//(荷)馬爾滕·格魯滕多斯特|責編:劉美英|譯者:李博傑
  • 出版社:人民郵電
  • ISBN:9787115670830
  • 出版日期:2025/05/01
  • 裝幀:平裝
  • 頁數:349
人民幣:RMB 159.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書全程圖解式講解,通過大量全彩插圖拆解概念,讓讀者真正告別學習大模型的枯燥和複雜。
    全書分為三部分,依次介紹語言模型的原理、應用及優化。第一部分理解語言模型(第1?3章),解析語言模型的核心概念,包括詞元、嵌入向量及Transformer架構,幫助讀者建立基礎認知。第二部分使用預訓練語言模型(第4?9章),介紹如何使用大模型進行文本分類、聚類、語義搜索、文本生成及多模態擴展,提升模型的應用能力。第三部分訓練和微調語言模型(第10?12章),探討大模型的訓練與微調方法,包括嵌入模型的構建、分類任務的優化及生成式模型的微調,以適應特定需求。
    本書適合對大模型感興趣的開發者、研究人員和行業從業者。讀者無須深度學習基礎,只要會用Python,就可以通過本書深入理解大模型的原理並上手大模型應用開發。書中示例還可以一鍵在線運行,讓學習過程更輕鬆。

作者介紹
(沙特)傑伊·阿拉馬爾//(荷)馬爾滕·格魯滕多斯特|責編:劉美英|譯者:李博傑

目錄
對本書的讚譽
對本書中文版的讚譽
譯者序
中文版序
前言
第一部分  理解語言模型
  第1章  大語言模型簡介
    1.1  什麼是語言人工智慧
    1.2  語言人工智慧的近期發展史
      1.2.1  將語言表示為詞袋模型
      1.2.2  用稠密向量嵌入獲得更好的表示
      1.2.3  嵌入的類型
      1.2.4  使用注意力機制編解碼上下文
      1.2.5  「Attention Is All You Need」
      1.2.6  表示模型:僅編碼器模型
      1.2.7  生成模型:僅解碼器模型
      1.2.8  生成式AI元年
    1.3  「LLM」定義的演變
    1.4  LLM的訓練範式
    1.5  LLM的應用
    1.6  開發和使用負責任的LLM
    1.7  有限的資源就夠了
    1.8  與LLM交互
      1.8.1  專有模型
      1.8.2  開源模型
      1.8.3  開源框架
    1.9  生成你的第一段文本
    1.10  小結
  第2章  詞元和嵌入
    2.1  LLM的分詞
      2.1.1  分詞器如何處理語言模型的輸入
      2.1.2  下載和運行LLM
      2.1.3  分詞器如何分解文本
      2.1.4  詞級、子詞級、字元級與位元組級分詞
      2.1.5  比較訓練好的LLM分詞器
      2.1.6  分詞器屬性
    2.2  詞元嵌入
      2.2.1  語言模型為其分詞器的詞表保存嵌入
      2.2.2  使用語言模型創建與上下文相關的詞嵌入
    2.3  文本嵌入(用於句子和整篇文檔)
    2.4  LLM之外的詞嵌入
      2.4.1  使用預訓練詞嵌入
      2.4.2  word2vec演算法與對比訓練
    2.5  推薦系統中的嵌入
      2.5.1  基於嵌入的歌曲推薦
      2.5.2  訓練歌曲嵌入模型
    2.6  小結
  第3章  LLM的內部機制
    3.1  Transformer模型概述
      3.1.1  已訓練Transformer LLM的輸入和輸出

      3.1.2  前向傳播的組成
      3.1.3  從概率分佈中選擇單個詞元(採樣 解碼)
      3.1.4  並行詞元處理和上下文長度
      3.1.5  通過緩存鍵 值加速生成過程
      3.1.6  Transformer塊的內部結構
    3.2  Transformer架構的最新改進
      3.2.1  更高效的注意力機制
      3.2.2  Transformer塊
      3.2.3  位置嵌入:RoPE
      3.2.4  其他架構實驗和改進
    3.3  小結
第二部分  使用預訓練語言模型
  第4章  文本分類
    4.1  電影評論的情感分析
    4.2  使用表示模型進行文本分類
    4.3  模型選擇
    4.4  使用特定任務模型
    4.5  利用嵌入向量的分類任務
      4.5.1  監督分類
      4.5.2  沒有標注數據怎麼辦
    4.6  使用生成模型進行文本分類
      4.6.1  使用T
      4.6.2  使用ChatGPT進行分類
    4.7  小結
  第5章  文本聚類和主題建模
    5.1  ArXiv文章:計算與語言
    5.2  文本聚類的通用流程
      5.2.1  嵌入文檔
      5.2.2  嵌入向量降維
      5.2.3  對降維后的嵌入向量進行聚類
      5.2.4  檢查生成的簇
    5.3  從文本聚類到主題建模
      5.3.1  BERTopic:一個模塊化主題建模框架
      5.3.2  添加特殊的「樂高積木塊」
      5.3.3  文本生成的「樂高積木塊」
    5.4  小結
  第6章  提示工程
    6.1  使用文本生成模型
      6.1.1  選擇文本生成模型
      6.1.2  載入文本生成模型
      6.1.3  控制模型輸出
    6.2  提示工程簡介
      6.2.1  提示詞的基本要素
      6.2.2  基於指令的提示詞
    6.3  高級提示工程
      6.3.1  提示詞的潛在複雜性
      6.3.2  上下文學習:提供示例
      6.3.3  鏈式提示:分解問題
    6.4  使用生成模型進行推理
      6.4.1  思維鏈:先思考再回答

      6.4.2  自洽性:採樣輸出
      6.4.3  思維樹:探索中間步驟
    6.5  輸出驗證
      6.5.1  提供示例
      6.5.2  語法:約束採樣
    6.6  小結
  第7章  高級文本生成技術與工具
    7.1  模型輸入 輸出:基於LangChain載入量化模型
    7.2  鏈:擴展LLM的能力
      7.2.1  鏈式架構的關鍵節點:提示詞模板
      7.2.2  多提示詞鏈式架構
    7.3  記憶:構建LLM的對話回溯能力
      7.3.1  對話緩衝區
      7.3.2  窗口式對話緩衝區
      7.3.3  對話摘要
    7.4  智能體:構建LLM系統
      7.4.1  智能體的核心機制:遞進式推理
      7.4.2  LangChain中的ReAct實現
    7.5  小結
  第8章  語義搜索與RAG
    8.1  語義搜索與RAG技術全景
    8.2  語言模型驅動的語義搜索實踐
      8.2.1  稠密檢索
      8.2.2  重排序
      8.2.3  檢索評估指標體系
    8.3  RAG
      8.3.1  從搜索到RAG
      8.3.2  示例:使用LLM API進行基於知識的生成
      8.3.3  示例:使用本地模型的RAG
      8.3.4  高級RAG技術
      8.3.5  RAG效果評估
    8.4  小結
  第9章  多模態LLM
    9.1  視覺Transformer
    9.2  多模態嵌入模型
      9.2.1  CLIP:構建跨模態橋樑
      9.2.2  CLIP的跨模態嵌入生成機制
      9.2.3  OpenCLIP
    9.3  讓文本生成模型具備多模態能力
      9.3.1  BLIP-2:跨越模態鴻溝
      9.3.2  多模態輸入預處理
      9.3.3  用例1:圖像描述
      9.3.4  用例2:基於聊天的多模態提示詞
    9.4  小結
第三部分  訓練和微調語言模型
  第10章  構建文本嵌入模型
    10.1  嵌入模型
    10.2  什麼是對比學習
    10.3  SBERT
    10.4  構建嵌入模型

      10.4.1  生成對比樣本
      10.4.2  訓練模型
      10.4.3  深入評估
      10.4.4  損失函數
    10.5  微調嵌入模型
      10.5.1  監督學習
      10.5.2  增強型SBERT
    10.6  無監督學習
      10.6.1  TSDAE
      10.6.2  使用TSDAE進行領域適配
    10.7  小結
  第11章  為分類任務微調表示模型
    11.1  監督分類
      11.1.1  微調預訓練的BERT模型
      11.1.2  凍結層
    11.2  少樣本分類
      11.2.1  SetFit:少樣本場景下的高效微調方案
      11.2.2  少樣本分類的微調
    11.3  基於掩碼語言建模的繼續預訓練
    11.4  命名實體識別
      11.4.1  數據準備
      11.4.2  命名實體識別的微調
    11.5  小結
  第12章  微調生成模型
    12.1  LLM訓練三步走:預訓練、監督微調和偏好調優
    12.2  監督微調
      12.2.1  全量微調
      12.2.2  參數高效微調
    12.3  使用QLoRA進行指令微調
      12.3.1  模板化指令數據
      12.3.2  模型量化
      12.3.3  LoRA配置
      12.3.4  訓練配置
      12.3.5  訓練
      12.3.6  合併權重
    12.4  評估生成模型
      12.4.1  詞級指標
      12.4.2  基準測試
      12.4.3  排行榜
      12.4.4  自動評估
      12.4.5  人工評估
    12.5  偏好調優、對齊
    12.6  使用獎勵模型實現偏好評估自動化
      12.6.1  獎勵模型的輸入和輸出
      12.6.2  訓練獎勵模型
      12.6.3  訓練無獎勵模型
    12.7  使用DPO進行偏好調優
      12.7.1  對齊數據的模板化
      12.7.2  模型量化
      12.7.3  訓練配置

      12.7.4  訓練
    12.8  小結
附錄  圖解DeepSeek-R
後記

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032