幫助中心 | 我的帳號 | 關於我們

生成式AI入門與AWS實戰

  • 作者:(美)克里斯·弗雷格利//(德)安特耶·巴特//(美)舍爾比·艾根布羅德|責編:秦健|譯者:生成式AI技術興趣小組
  • 出版社:人民郵電
  • ISBN:9787115644169
  • 出版日期:2024/06/01
  • 裝幀:平裝
  • 頁數:254
人民幣:RMB 99.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書是專註于如何在AWS上開發和應用生成式AI的實用指南,旨在為技術領導者、機器學習實踐者、應用開發者等提供深入了解和應用生成式AI的策略與方法。本書首先介紹了生成式AI的概念及其在產品和服務中的應用潛力,然後詳細闡述了生成式AI項目的完整生命周期。作者探討了多種模型類型,如大語言模型和多模態模型,並提供了通過提示工程和上下文學習來優化這些模型的實際技巧。此外,本書討論了如何使用LoRA技術對模型進行微調,以及如何通過RLHF使模型與人類價值觀對齊。書中還介紹了RAG技術,以及如何利用LangChain和ReAct等開發agent。最後,本書介紹了如何使用Amazon Bedrock構建基於生成式AI的應用程序。基於該強大的平台,讀者可以實現自己的創新想法。
    本書適合對生成式AI感興趣的學生和研究人員、在AWS上開發AI應用程序的軟體開發人員和數據科學家、尋求利用AI技術優化業務流程的企業決策者以及對技術趨勢保持好奇心的科技愛好者閱讀。

作者介紹
(美)克里斯·弗雷格利//(德)安特耶·巴特//(美)舍爾比·艾根布羅德|責編:秦健|譯者:生成式AI技術興趣小組

目錄
前言
第1章  生成式AI用例、基礎知識和項目生命周期
  1.1  生成式AI用例和任務
  1.2  基礎模型和模型中心
  1.3  生成式AI項目生命周期
  1.4  AWS上的生成式AI
  1.5  為什麼選擇基於AWS構建生成式AI
  1.6  在AWS上構建生成式AI應用程序
  1.7  小結
第2章  提示工程與上下文學習
  2.1  提示與補全
  2.2  token
  2.3  提示工程
  2.4  提示結構
    2.4.1  指令
    2.4.2  上下文
  2.5  通過少樣本推理進行上下文學習
    2.5.1  零樣本推理
    2.5.2  單樣本推理
    2.5.3  少樣本推理
    2.5.4  上下文學習出錯
    2.5.5  上下文學習實踐
  2.6  提示工程實踐
  2.7  推理配置參數
  2.8  小結
第3章  大語言基礎模型
  3.1  大語言基礎模型簡介
  3.2  分詞器
  3.3  嵌入向量
  3.4  Transformer
    3.4.1  輸入token上下文窗口
    3.4.2  嵌入
    3.4.3  編碼器
    3.4.4  自注意力層
    3.4.5  解碼器
    3.4.6  Softmax輸出
  3.5  基於Transformer的基礎模型的類別
  3.6  預訓練數據集
  3.7  縮放定律
  3.8  計算*模型
  3.9  小結
第4章  顯存和計算優化
  4.1  顯存容量挑戰
  4.2  數據類型和數值精度
  4.3  量化
    4.3.1  fp
    4.3.2  bfloat
    4.3.3  fp
    4.3.4  int
  4.4  優化自注意力層

    4.4.1  FlashAttention
    4.4.2  分組查詢注意力
  4.5  分散式GPU集群計算
    4.5.1  分散式數據並行
    4.5.2  全分片數據並行
    4.5.3  FSDP與DDP的性能比較
  4.6  基於AWS的分散式計算
    4.6.1  通過Amazon SageMaker進行全分片數據並行
    4.6.2  AWS Neuron SDK與AWS Trainium
  4.7  小結
第5章  微調和評估
  5.1  指令微調簡介
    5.1.1  Llama
    5.1.2  Falcon
    5.1.3  FLAN-T
  5.2  指令數據集
    5.2.1  多任務指令數據集
    5.2.2  FLAN:示例多任務指令數據集
    5.2.3  提示模板
    5.2.4  將自定義數據集轉換為指令數據集
  5.3  指令微調的過程
    5.3.1  Amazon SageMaker Studio
    5.3.2  Amazon SageMaker JumpStart
    5.3.3  將Amazon SageMaker Estimator用於Hugging Face
  5.4  評估
    5.4.1  評估指標
    5.4.2  基準測試和數據集
  5.5  小結
第6章  參數*微調
  6.1  全量微調與PEFT
  6.2  LoRA和QLoRA
    6.2.1  LoRA基礎
    6.2.2  秩
    6.2.3  目標模塊和網路層
    6.2.4  應用LoRA
    6.2.5  將LoRA適配器與原始模型合併
    6.2.6  維護獨立的LoRA適配器
    6.2.7  全量微調與LoRA性能比較
    6.2.8  QLoRA
  6.3  PromptTuning和軟提示
  6.4  小結
第7章  基於人類反饋的強化學習微調
  7.1  與人類價值觀對齊:有用的、誠實的、無害的
  7.2  強化學習概述
  7.3  訓練自定義獎勵模型
    7.3.1  通過人機交互收集訓練數據集
    7.3.2  供人類標注者參考的示例指令
    7.3.3  通過Amazon SageMaker Ground Truth進行人工標注
    7.3.4  為訓練獎勵模型準備排序數據
    7.3.5  訓練獎勵模型

  7.4  現有獎勵模型:Meta有害性檢測器模型
  7.5  通過人類反饋進行強化學習微調
    7.5.1  使用獎勵模型進行RLHF
    7.5.2  近端策略優化強化學習演算法
    7.5.3  通過PPO進行RLHF微調
    7.5.4  緩解獎勵破解
    7.5.5  通過RLHF進行PEFT
  7.6  評估RLHF微調模型
    7.6.1  定性評估
    7.6.2  定量評估
    7.6.3  載入評估模型
    7.6.4  定義評估指標聚合函數
    7.6.5  比較應用RLHF之前和之後的評估指標
  7.7  小結
第8章  模型部署優化
  8.1  模型推理優化
    8.1.1  剪枝
    8.1.2  通過GPTQ進行訓練后量化
    8.1.3  蒸餾
  8.2  大型模型推理容器
  8.3  AWS Inferentia:專為推理而打造的硬體
  8.4  模型更新和部署策略
    8.4.1  A/B測試
    8.4.2  影子模型部署
  8.5  指標和監控
  8.6  自動伸縮
    8.6.1  自動伸縮策略
    8.6.2  定義自動伸縮策略
  8.7  小結
第9章  通過RAG和agent實現基於上下文推理的應用程序
  9.1  大語言模型的局限性
    9.1.1  幻覺
    9.1.2  知識截斷
  9.2  RAG
    9.2.1  外部知識源
    9.2.2  RAG工作流
    9.2.3  文檔載入
    9.2.4  分塊
    9.2.5  檢索數據和重新排序
    9.2.6  提示增強
  9.3  RAG編排和實現
    9.3.1  文檔載入和分塊
    9.3.2  嵌入向量存儲和檢索
    9.3.3  檢索鏈
    9.3.4  通過MMR進行重新排序
  9.4  agent
    9.4.1  ReAct框架
    9.4.2  PAL框架
  9.5  生成式AI應用程序
  9.6  FMOps:實施生成式AI項目生命周期

    9.6.1  試驗注意事項
    9.6.2  開發注意事項
    9.6.3  生產部署注意事項
  9.7  小結
第10章  多模態基礎模型
  10.1  用例
  10.2  多模態提示工程實踐
  10.3  圖像生成和增強
    10.3.1  圖像生成
    10.3.2  圖像編輯和增強
  10.4  圖像補全、圖像外部填充和depth-to-image
    10.4.1  圖像補全
    10.4.2  圖像外部填充
    10.4.3  depth-to-image
  10.5  圖像描述和視覺問答
    10.5.1  圖像描述
    10.5.2  內容審查
    10.5.3  視覺問答
  10.6  模型評估
    10.6.1  文生圖任務
    10.6.2  圖生文任務
    10.6.3  非語言推理任務
  10.7  擴散模型架構
    10.7.1  前向擴散簡介
    10.7.2  反向擴散簡介
    10.7.3  U-Net簡介
  10.8  StableDiffusion2架構
    10.8.1  文本編碼器
    10.8.2  U-Net和擴散過程
    10.8.3  文本條件控制
    10.8.4  交叉注意力
    10.8.5  採樣器
    10.8.6  圖像解碼器
  10.9  StableDiffusionXL架構
    10.9.1  U-Net和交叉注意力
    10.9.2  精修模型
    10.9.3  條件控制
  10.10  小結
第11章  通過StableDiffusion進行受控生成和微調
  11.1  ControlNet
  11.2  微調
    11.2.1  DreamBooth
    11.2.2  DreamBooth與PEFT-LoRA
    11.2.3  文本反演
  11.3  通過RLHF進行人類偏好對齊
  11.4  小結
第12章  AmazonBedrock:用於生成式AI的托管服務
  12.1  Bedrock基礎模型
    12.1.1  AmazonTitan基礎模型
    12.1.2  來自StabilityAI公司的Stable Diffusion基礎模型

  12.2  Bedrock推理API
  12.3  大語言模型推理API
    12.3.1  生成SQL代碼
    12.3.2  文本摘要
    12.3.3  使用Amazon Bedrock生成嵌入
  12.4  通過Amazon Bedrock進行微調
  12.5  通過Amazon Bedrock創建agent
  12.6  多模態模型
    12.6.1  文生圖
    12.6.2  圖生圖
  12.7  數據隱私和網路安全
  12.8  治理和監控
  12.9  小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032