幫助中心 | 我的帳號 | 關於我們

大模型產品化手冊(工程化方法與實踐)

  • 作者:(美)克里斯托弗·布魯索//馬特·夏普|責編:王軍|譯者:殷海英
  • 出版社:清華大學
  • ISBN:9787302710530
  • 出版日期:2026/04/01
  • 裝幀:平裝
  • 頁數:389
人民幣:RMB 118 元      售價:
放入購物車
加入收藏夾

內容大鋼
    大多數商業軟體通常採用迭代開發的方式,部署后還可以進行顯著的改進和調整。與此不同,大語言模型(LLM)開發成本高、修改難度大,因此需要在前期進行精心的規劃、嚴格的數據標準控制及精準的技術實現。將LLM集成到實際產品中,會影響運營的方方面面,包括應用生命周期、數據處理流程、計算成本、安全性等。如果操作不當,可能導致高昂的失敗成本。
    《大模型產品化手冊:工程化方法與實踐》將介紹如何制訂一個LLMOps計劃,幫助你將AI應用從設計順利過渡到交付。你將學習如何準備LLM數據集,掌握高效的訓練技巧,如LoRA(低秩適應)和RLHF(基於人類反饋的強化學習),以及如何通過行業基準來評估模型性能。在學習過程中,你還將通過三個有趣的項目,實踐所學的技能:創建並訓練定製的大語言模型,開發一個VSCodeAI編碼插件,以及將小型模型部署到樹莓派上。
    主要內容:
    平衡成本與性能;
    再訓練與負載測試;
    針對普通硬體優化模型;
    在Kubernetes集群上部署。
    本書適合掌握Python和雲部署基礎知識的數據科學家和機器學習工程師閱讀。

作者介紹
(美)克里斯托弗·布魯索//馬特·夏普|責編:王軍|譯者:殷海英

目錄
第1章  語言的覺醒:為何大語言模型引起了廣泛關注
  1.1  大語言模型加速信息傳遞
  1.2  大語言模型應用中的自建與採購決策權衡
    1.2.1  採購:成熟的路徑選擇
    1.2.2  構建:不走尋常路
    1.2.3  重要提示:即刻擁抱未來
  1.3  破除迷思
  1.4  本章小結
第2章  大語言模型技術內幕:語言建模深度解析
  2.1  語言建模
    2.1.1  語言特徵
    2.1.2  符號學
    2.1.3  多語言自然語言處理
  2.2  語言建模技術
    2.2.1  N-gram與基於語料庫的技術
    2.2.2  貝葉斯技術
    2.2.3  馬爾可夫鏈
    2.2.4  連續語言建模
    2.2.5  詞向量技術(Embedding)
    2.2.6  多層感知機
    2.2.7  循環神經網路和長短時記憶網路
    2.2.8  注意力機制
  2.3  注意力機制即一切
    2.3.1  編碼器
    2.3.2  解碼器
    2.3.3  Transformer
  2.4  超大規模變換器
  2.5  本章小結
第3章  大語言模型運維:構建LLM平台
  3.1  大語言模型運維簡介
  3.2  大語言模型的運維挑戰
    3.2.1  漫長的下載時間
    3.2.2  更長的部署時間
    3.2.3  延遲
    3.2.4  管理GPU
    3.2.5  文本數據的特殊性
    3.2.6  token限制引發瓶頸
    3.2.7  幻覺導致混淆
    3.2.8  偏見與倫理考量
    3.2.9  安全問題
    3.2.10  控製成本
  3.3  LLMOps要點
    3.3.1  壓縮
    3.3.2  分散式計算
  3.4  運行大語言模型的基礎設施
    3.4.1  數據基礎設施
    3.4.2  實驗跟蹤器
    3.4.3  模型註冊表
    3.4.4  特徵存儲
    3.4.5  向量資料庫

    3.4.6  監控系統
    3.4.7  支持GPU的工作站
    3.4.8  部署服務
  3.5  本章小結
第4章  大語言模型數據工程:構建成功的基石
  4.1  模型是基礎
    4.1.1  GPT
    4.1.2  BLOOM
    4.1.3  LLaMA
    4.1.4  Wizard
    4.1.5  Falcon
    4.1.6  Vicuna
    4.1.7  Dolly
    4.1.8  OpenChat
  4.2  大語言模型的評估
    4.2.1  文本評估指標
    4.2.2  行業基準
    4.2.3  負責任的AI基準測試
    4.2.4  開發自定義基準測試
    4.2.5  評估代碼生成器
    4.2.6  評估模型參數
  4.3  大語言模型的數據
    4.3.1  你應該了解的數據集
    4.3.2  數據清理與準備
  4.4  文本處理器
    4.4.1  分詞化
    4.4.2  嵌入
  4.5  準備一個Slack數據集
  4.6  本章小結
第5章  訓練大語言模型:如何生成生成器
  5.1  多GPU訓練環境
    5.1.1  設置
    5.1.2  庫
  5.2  基礎的訓練技術
    5.2.1  從零開始
    5.2.2  遷移學習(微調)
    5.2.3  提示工程(Prompting)
  5.3  高級訓練技術
    5.3.1  提示調優
    5.3.2  使用知識蒸餾進行微調
    5.3.3  基於人類反饋的強化學習
    5.3.4  專家混合模型
    5.3.5  LoRA與PEFT
  5.4  訓練技巧與竅門
    5.4.1  訓練數據規模的注意事項
    5.4.2  高效訓練
    5.4.3  局部極小值陷阱
    5.4.4  超參數調優技巧
    5.4.5  關於操作系統的說明
    5.4.6  激活函數的建議

  5.5  本章小結
第6章  LLM服務:實用指南
  6.1  構建LLM服務
    6.1.1  模型編譯
    6.1.2  大語言模型的存儲策略
    6.1.3  自適應請求批處理
    6.1.4  流量控制
    6.1.5  流式響應
    6.1.6  特徵存儲
    6.1.7  檢索增強生成
    6.1.8  LLM服務庫
  6.2  設置基礎設施
    6.2.1  集群配置
    6.2.2  自動擴展
    6.2.3  滾動更新
    6.2.4  推理圖
    6.2.5  監控
  6.3  生產環境中的挑戰
    6.3.1  模型更新與重新訓練
    6.3.2  負載測試
    6.3.3  排查高延遲問題
    6.3.4  資源管理
    6.3.5  成本工程
    6.3.6  安全性
  6.4  邊緣部署
  6.5  本章小結
第7章  提示工程:成為LLM的「專家」
  7.1  提示你的模型
    7.1.1  少樣本提示
    7.1.2  單樣本提示
    7.1.3  零樣本提示
  7.2  提示工程的基礎
    7.2.1  提示的結構
    7.2.2  提示超參數之外
    7.2.3  挖掘訓練數據
  7.3  提示工程工具
    7.3.1  LangChain
    7.3.2  Guidance
    7.3.3  DSPy
    7.3.4  其他工具雖可用,但……
  7.4  高級提示工程技術
    7.4.1  為大語言模型提供工具
    7.4.2  ReAct
  7.5  本章小結
第8章  大語言模型運維:構建LLM平台
  8.1  構建應用程序
    8.1.1  前端流式傳輸
    8.1.2  保持歷史記錄
    8.1.3  與聊天機器人交互的功能
    8.1.4  token計數

    8.1.5  檢索增強生成(RAG)的應用
  8.2  邊緣應用
  8.3  大語言模型代理
  8.4  本章小結
第9章  創建一個大語言模型項目:重新實現LLama 3
  9.1  實現Meta的LLama模型
    9.1.1  分詞化與配置
    9.1.2  數據集、數據載入、評估與生成
    9.1.3  網路架構
  9.2  簡化的LLama模型
  9.3  讓它變得更好
    9.3.1  量化
    9.3.2  LoRA
    9.3.3  完全分片數據並行——量化LoRA
  9.4  部署到Hugging Face Hub Space
  9.5  本章小結
第10章  創建編程助手項目:這個項目可以助你事半功倍
  10.1  我們的模型
  10.2  數據為王
    10.2.1  我們的向量資料庫
    10.2.2  我們的數據集
    10.2.3  使用RAG
  10.3  構建VS Code擴展
  10.4  經驗總結與下一步行動
  10.5  本章小結
第11章  在樹莓派上部署大語言模型:性能極限挑戰
  11.1  設置你的樹莓派
    11.1.1  Pi Imager
    11.1.2  連接到Pi
    11.1.3  軟體安裝與更新
  11.2  模型準備
  11.3  模型服務
  11.4  改進措施
    11.4.1  使用更好的界面
    11.4.2  調整量化方式
    11.4.3  增加多模態能力
    11.4.4  在Google Colab上部署模型
  11.5  本章小結
第12章  生產環境,瞬息萬變:一切才剛剛開始
  12.1  概覽
  12.2  大語言模型的未來
    12.2.1  政府與監管
    12.2.2  大語言模型正變得更大
    12.2.3  多模態空間
    12.2.4  數據集
    12.2.5  解決幻覺問題
    12.2.6  新硬體
    12.2.7  智能體將變得有用
  12.3  最終思考
  12.4  本章小結

附錄A  語言學的歷史
附錄B  基於人類反饋的強化學習
附錄C  多模態潛在空間

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032