幫助中心 | 我的帳號 | 關於我們

從零開始構建大模型--架構設計模型訓練與高效部署

  • 作者:編者:睿思科技|責編:耍利娜
  • 出版社:化學工業
  • ISBN:9787122497222
  • 出版日期:2026/03/01
  • 裝幀:平裝
  • 頁數:268
人民幣:RMB 89.9 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書系統闡述了從零構建大語言模型(LLM)的全流程技術體系,覆蓋模型架構設計、訓練機制、微調方法、高效部署及應用實戰。
    全書共分12章,首先圍繞大模型發展脈絡、Transformer架構、預訓練語料構建與分散式訓練架構,釐清了大模型的基本工作原理與工程落地基礎。隨後聚焦指令微調、RLHF對齊、多模態擴展等關鍵能力,剖析了當前主流模型在認知任務、視覺語言任務中的關鍵優化路徑。同時本書還深入介紹了RAG檢索增強機制、智能體編排、模型協同通信、安全性與對齊機制,為構建穩健可靠的大模型系統提供參考。最後重點落地于部署優化與實際場景,如企業問答、私有化部署、智能代碼生成等。
    本書內容兼顧理論性與工程實用性,涵蓋典型演算法、主流框架、實現邏輯與調優策略,適合大模型從業者、研究人員、一線開發工程師等不同讀者用於系統掌握大模型核心技術。

作者介紹
編者:睿思科技|責編:耍利娜

目錄
第1章  大模型技術概覽與體系構成
  1.1  大模型技術發展簡介
    1.1.1  從統計語言模型到深度神經網路
    1.1.2  Transformer的誕生與影響
    1.1.3  Scaling Law與大參數模型
  1.2  大模型生態分類
    1.2.1  編碼器與解碼器
    1.2.2  自回歸模型(GPT)與自編碼模型(BERT)
    1.2.3  常見模型:GPT、LLaMA、DeepSeek、Doubao等
  1.3  如何構建大語言模型?
    1.3.1  大模型構建基本流程簡介
    1.3.2  訓練數據規模與分佈
    1.3.3  網路結構複雜度與參數規模
    1.3.4  訓練與對齊
  1.4  LLM工程系統基本組成
    1.4.1  模型構建與預訓練
    1.4.2  微調機制與對齊技術
    1.4.3  推理部署與多模態擴展
  1.5  本章小結
第2章  Transformer結構原理與模型機制
  2.1  Transformer結構總覽
    2.1.1  模型對稱設計
    2.1.2  子層結構:注意力與前饋模塊
    2.1.3  殘差連接與層歸一化
  2.2  自注意力機制詳解
    2.2.1  Query、Key、Value詳解
    2.2.2  多頭注意力機制
    2.2.3  掩碼機制與位置依賴建模
  2.3  位置編碼方式比較
    2.3.1  正餘弦位置編碼
    2.3.2  Rotary Positional Embedding(RoPE)
    2.3.3  相對位置偏移(如T5、ALiBi)
  2.4  模型計算與參數設計
    2.4.1  維度設定:表示維度、頭數與隱藏層
    2.4.2  激活函數:ReLU、GELU與SiLU
    2.4.3  參數共享與層歸一化策略
  2.5  本章小結
第3章  預訓練任務與數據構建流程
  3.1  語言建模任務基礎
    3.1.1  自回歸語言模型訓練目標
    3.1.2  掩碼語言模型與雙向建模方式
    3.1.3  統一建模框架與多任務目標
  3.2  預訓練語料採集與清洗
    3.2.1  Web文本抓取與語料爬取策略
    3.2.2  清洗規則:去噪、去重、篩選
    3.2.3  文本質量評估與分佈平衡
  3.3  Tokenization機制與詞表設計
    3.3.1  Byte Pair Encoding(BPE)原理
    3.3.2  SentencePiece工具與Unigram模型
    3.3.3  詞表大小與覆蓋率權衡

  3.4  數據格式化與採樣策略
    3.4.1  文本切分與Window策略
    3.4.2  PackedSequence與Efficient Collator
    3.4.3  長文本上下文接續處理
  3.5  本章小結
第4章  大模型訓練系統設計
  4.1  模型訓練架構概覽
    4.1.1  數據並行與模型並行基本原理
    4.1.2  混合精度與FP16訓練機制
    4.1.3  Checkpoint恢復與中斷續訓
  4.2  分散式訓練技術
    4.2.1  ZeRO系列:階段劃分與優化策略
    4.2.2  Fully Sharded Data Parallel (FSDP)
    4.2.3  流水線並行與重疊計算
  4.3  大規模訓練框架工具
    4.3.1  DeepSpeed與Megatron-LM使用流程
    4.3.2  PyTorch Lightning分散式訓練實戰
    4.3.3  張量並行與推理優化
  4.4  性能調優與硬體適配
    4.4.1  A100/H100集群部署與帶寬配置
    4.4.2  GPU監控與訓練日誌分析
    4.4.3  梯度裁剪與學習率調度
  4.5  本章小結
第5章  指令微調與人類反饋強化學習
  5.1  指令微調的背景與目標
    5.1.1  Prompt與Instruction簡介
    5.1.2  Supervised Fine-Tuning(SFT)流程
    5.1.3  InstructGPT數據構造方法
  5.2  強化學習與偏好建模
    5.2.1  獎勵模型構建方式
    5.2.2  PPO演算法與策略更新
    5.2.3  比較學習(DPO/RLHF/Best-of-N)
  5.3  參數高效微調方法
    5.3.1  LoRA機制與代碼實現
    5.3.2  QLoRA在量化基礎上的微調
    5.3.3  Adapter Tuning、Prefix Tuning與Prompt Tuning
  5.4  多任務與多階段對齊機制
    5.4.1  多任務混合訓練策略
    5.4.2  Instruction Template構建
    5.4.3  評測驅動與對齊流程
  5.5  本章小結
第6章  模型壓縮、量化與加速推理
  6.1  推理成本與部署瓶頸分析
    6.1.1  KV Cache對推理速度的影響
    6.1.2  內存佔用與模型激活緩存結構
    6.1.3  多卡並行推理調度
  6.2  權重量化方法詳解
    6.2.1  INT8靜態量化與GPTQ演算法
    6.2.2  AWQ、SmoothQuant等演算法性能分析
    6.2.3  量化后推理精度評估

  6.3  模型剪枝與稀疏化技術
    6.3.1  權重剪枝簡介
    6.3.2  激活稀疏性與動態路由機制
    6.3.3  稀疏注意力結構簡介
  6.4  推理引擎與部署框架
    6.4.1  vLLM與PagedAttention機制
    6.4.2  TensorRT-LLM部署流程
    6.4.3  ONNX導出與服務封裝
  6.5  本章小結
第7章  多模態與視覺語言模型構建
  7.1  多模態模型體系結構
    7.1.1  圖像編碼器與視覺特徵嵌入
    7.1.2  文本、圖像對齊方式
    7.1.3  CLIP、BLIP與ImageBind原理
  7.2  圖文聯合訓練機制
    7.2.1  圖文對數據採集與標注
    7.2.2  CrossAttention融合策略
    7.2.3  多模態對比學習任務
  7.3  LLM與VLM集成方法
    7.3.1  特徵對齊層設計
    7.3.2  多模態Adapter插入機制
    7.3.3  多模態指令微調
  7.4  典型多模態模型剖析
    7.4.1  MiniGPT-4模型結構與訓練
    7.4.2  LLaVA系列多模態調優流程
    7.4.3  Gemini、KOSMOS與多模態接入策略
  7.5  本章小結
第8章  檢索增強生成(RAG)系統與知識注入機制
  8.1  RAG技術引入與應用場景
    8.1.1  大模型的「遺忘」與知識補全
    8.1.2  檢索增強生成基本流程
  8.2  文檔分塊與向量化機制
    8.2.1  文檔切分策略
    8.2.2  向量編碼模型
    8.2.3  嵌入維度與相似度函數設計
  8.3  向量資料庫與召回架構
    8.3.1  FAISS索引構建與近似檢索
    8.3.2  向量資料庫部署流程
    8.3.3  多段文檔召回與Ranking排序
  8.4  RAG管道融合與生成控制
    8.4.1  LangChain、LlamaIndex框架整合方法
    8.4.2  Prompt模板控制與文檔上下文壓縮
  8.5  本章小結
第9章  Agent系統與多模型協同機制
  9.1  智能體架構與運行機制
    9.1.1  什麼是AI Agent?—核心組件解析
    9.1.2  狀態感知與任務規劃模型
    9.1.3  Prompt路由與子Agent調度
  9.2  插件調用與執行器集成
    9.2.1  工具使用權的控制與許可權調度

    9.2.2  Function Calling與工具集註冊
    9.2.3  代碼執行型Agent的沙箱機制
  9.3  上下文管理與記憶機制
    9.3.1  Conversation Memory結構體設計
    9.3.2  工作記憶與長期記憶
  9.4  模型協同與MCP協議
    9.4.1  Model Context Protocol(MCP)協議簡介
    9.4.2  多模型併發、順序調用流程
    9.4.3  非同步執行與響應流集成設計
  9.5  本章小結
第10章  大模型對齊機制與安全審查體系
  10.1  大模型行為不確定性分析
    10.1.1  模型幻覺與不一致響應案例
    10.1.2  社會偏見、歧視與攻擊性輸出風險
    10.1.3  Prompt Injection與越權調用分析
  10.2  模型對齊技術路徑
    10.2.1  RLHF人類偏好建模
    10.2.2  RLAIF與合成反饋優化方法
    10.2.3  DPO直接策略優化分析
  10.3  安全機制與審查流程設計
    10.3.1  OWASP for LLM威脅模型引入
    10.3.2  Prompt輸入過濾與輸出攔截
    10.3.3  日誌審計與可解釋性溯源
  10.4  數據隱私保護與合規策略
    10.4.1  企業級部署中的數據脫敏方法簡介
    10.4.2  客戶數據隔離與模型使用授權
    10.4.3  GDPR、中國網路數據安全相關法規要點解析
  10.5  本章小結
第11章  服務化部署與模型調用介面設計
  11.1  推理服務端架構基礎
    11.1.1  典型推理架構組成
    11.1.2  Batch推理與併發Session管理
    11.1.3  KV緩存復用與動態Token裁剪
  11.2  模型封裝與API調用設計
    11.2.1  使用FastAPI構建標準LLM介面
    11.2.2  OpenAI介面實現
    11.2.3  流式輸出與Token流推理
  11.3  部署優化與負載調度
    11.3.1  模型冷啟動優化策略
    11.3.2  GPU資源復用與多模型托管
    11.3.3  動態伸縮與服務彈性部署
  11.4  多模型網關與調用路由
    11.4.1  模型路由器設計:規則、性能、上下文適配
    11.4.2  多版本模型灰度發布與降級策略
    11.4.3  API限流與鑒權機制實現
  11.5  本章小結
第12章  大模型典型應用場景工程實戰
  12.1  企業文檔問答系統
    12.1.1  RAG問答、許可權控制系統搭建流程
    12.1.2  多部門文檔向量索引構建

    12.1.3  基於大模型的多輪追問支持
  12.2  智能代碼生成與輔助開發
    12.2.1  如何設計類似Copilot的智能補全架構?
    12.2.2  代碼上下文識別與函數補全機制
    12.2.3  多語言(Python、Java、C++)代碼生成對齊
  12.3  嵌入式私有化部署
    12.3.1  使用LoRA模型部署在CPU設備
    12.3.2  企業內網模型服務容器化部署
    12.3.3  高安全環境的離線推理系統設計
  12.4  本章小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032