幫助中心 | 我的帳號 | 關於我們

快速部署大模型(LLM策略與實踐基於ChatGPT等大語言模型)

  • 作者:(美)斯楠·奧茲德米爾|責編:袁金敏|譯者:姚普//白濤//卜崇宇//王蜀洪
  • 出版社:清華大學
  • ISBN:9787302661610
  • 出版日期:2024/06/01
  • 裝幀:平裝
  • 頁數:198
人民幣:RMB 79 元      售價:
放入購物車
加入收藏夾

內容大鋼
    作為人工智慧領域的前沿技術之一,大語言模型(LLM)的出現正逐步改變人類對語言、溝通乃至認知的理解。這些模型通過不斷迭代與升級,不僅在自然語言處理領域取得了革命性突破,更是將人工智慧的應用推向了一個嶄新的高度。從簡單的問答到複雜的文字生成,從初級的情感理解到撰寫具有豐富感情色彩的文章,LLM有著令人著迷的魔力,並驅使著人們不斷探索與實踐,發現更多令人興奮的秘密。
    本書覆蓋了大模型基本結構概述、提示詞工程、大模型的微調、強化學習與人類反饋等基礎理論知識,也包含採用大模型製作檢索引擎、推薦系統、文圖檢索等人門應用實踐,還介紹了大模型應用於商業生產時,開源與閉源的策略選擇等,能夠幫助廣大讀者對大模型的相關知識有一個快速的認知,進而幫助讀者快速融入人工智慧時代。

作者介紹
(美)斯楠·奧茲德米爾|責編:袁金敏|譯者:姚普//白濤//卜崇宇//王蜀洪

目錄
第1部分  大模型介紹
  第1章  大模型概述
    1.1  什麼是大模型
      1.1.1  大模型的定義
      1.1.2  大模型的關鍵特徵
      1.1.3  大模型是如何工作的
    1.2  當前流行的大模型
      1.2.1  BERT
      1.2.2  GPT-3和ChatGPT
      1.2.3  T5
    1.3  垂直領域大模型
    1.4  大模型的應用
      1.4.1  經典的NLP任務
      1.4.2  自由文本生成
      1.4.3  信息檢索/神經語意搜索
      1.4.4  聊天機器人
    1.5  本章小結
  第2章  大模型語義檢索
    2.1  簡介
    2.2  語義檢索的任務
    2.3  非對稱語義檢索方案概述
    2.4  組件
      2.4.1  文本嵌入器
      2.4.2  文檔分塊
      2.4.3  向量資料庫
      2.4.4  Pinecone
      2.4.5  開源替代方案
      2.4.6  檢索結果重排
      2.4.7  API
    2.5  完整方案
    2.6  閉源組件的成本
    2.7  本章小結
  第3章  提示詞工程入門
    3.1  簡介
    3.2  提示詞工程
      3.2.1  LLM的對齊
      3.2.2  LLM提問
      3.2.3  小樣本學習
      3.2.4  結構化輸出
      3.2.5  人物角色提示詞
    3.3  跨模型提示詞工程
      3.3.1  ChatGPT
      3.3.2  Cohere
      3.3.3  開源提示詞工程
    3.4  採用ChatGPT構建問答機器人
    3.5  本章小結
第2部分  充分挖掘大模型的潛力
  第4章  通過定製化微調優化大模型
    4.1  簡介
    4.2  遷移學習與微調入門

      4.2.1  微調過程的解釋
      4.2.2  閉源預訓練模型作為基礎模型
    4.3  OpenAI微調API概覽
      4.3.1  GPT-3微調API
      4.3.2  案例學習:亞馬遜評論情感分類
      4.3.3  數據指南和最佳實踐
    4.4  使用OpenAI CLI實現自定義數據微調
    4.5  設置OpenAI CLI
    4.6  LLM微調實踐
      4.6.1  採用量化指標評測大模型
      4.6.2  定性評估技術
      4.6.3  將微調的GPT-3模型集成到應用程序中
      4.6.4  案例學習:亞馬遜評論分類
    4.7  本章小結
  第5章  高級提示工程
    5.1  提示注入攻擊
    5.2  輸入/輸出驗證
    5.3  批處理提示
    5.4  提示鏈
      5.4.1  提示鏈作為防禦提示注入的手段
      5.4.2  使用提示鏈來防止提示填充
      5.4.3  使用提示鏈來安全地使用多模態LLM
    5.5  思維鏈提示
    5.6  重新審視小樣本學習
    5.7  測試和迭代快速開發
    5.8  本章小結
  第6章  定製嵌入層和模型架構
    6.1  案例研究:構建一個推薦系統
      6.1.1  定義問題和數據
      6.1.2  推薦系統的定義
      6.1.3  基於萬條用戶行為數據構建推薦系統
      6.1.4  生成自定義欄位來對比項目的相似性
      6.1.5  採用基礎詞向量構建基線
      6.1.6  準備微調數據
      6.1.7  使用Sentence Transformers微調開源嵌入器
      6.1.8  微調效果總結
    6.2  本章小結
第3部分  大模型的高級使用
  第7章  超越基礎模型
    7.1  案例研究:視覺問答
      7.1.1  模型簡介:DistilBERT、視覺轉換器和GPT
      7.1.2  隱藏狀態投影和融合
      7.1.3  交叉注意力是什麼以及為什麼至關重要
      7.1.4  定製多模式聯運模型
      7.1.5  數據:視覺問答
      7.1.6  VQA訓練迭代
      7.1.7  結果總結
    7.2  案例研究:從反饋中強化學習
      7.2.1  FLAN-T5模型
      7.2.2  獎勵模型:情感和語法正確性

      7.2.3  Transformer強化學習
      7.2.4  RLF訓練循環
      7.2.5  結果總結
    7.3  本章小結
  第8章  開源大模型的高級微調方法
    8.1  案例研究:採用BERT對動漫進行多標籤分類
      8.1.1  採用Jaccard相似分來評估動漫標題多標籤分類的效果
      8.1.2  簡單的微調大模型訓練流程
      8.1.3  通用的開源大模型微調技巧
      8.1.4  結果總結
    8.2  採用GPT-2生成LaTeX
      8.2.1  開源大模型的提示詞工程
      8.2.2  結果總結
    8.3  Sinan嘗試做出聰明而優美的回應:SAWYER
      8.3.1  有監督指令微調
      8.3.2  獎勵模型的訓練
      8.3.3  從(期望的)人類反饋中進行強化學習
      8.3.4  結果總結
    8.4  日新月異的微調世界
    8.5  本章小結
  第9章  將LLM應用於生產
    9.1  閉源:LLM應用於生產
    9.2  開源LLM應用於生產
      9.2.1  將LLM應用於推理
      9.2.2  互操作性
      9.2.3  模型量化
      9.2.4  模型剪枝
      9.2.5  知識蒸餾
      9.2.6  大模型的成本預估
      9.2.7  模型推送到Hugging Face倉庫
    9.3  本章小結
      9.3.1  歡迎向社區貢獻代碼
      9.3.2  繼續加油
第4部分  附錄
  附錄A  LLM常見問題解答
  附錄B  LLM術語表
  附錄C  LLM應用架構

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032