幫助中心 | 我的帳號 | 關於我們

ChatGLM3大模型本地化部署應用開發與微調/人工智慧技術叢書

  • 作者:王曉華|責編:夏毓彥
  • 出版社:清華大學
  • ISBN:9787302658818
  • 出版日期:2024/04/01
  • 裝幀:平裝
  • 頁數:274
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書作為《PyTorch 2.0深度學習從零開始學》的姊妹篇,專註于大模型的本地化部署、應用開發以及微調等。本書不僅系統地闡述了深度學習大模型的核心理論,更注重實踐應用,通過豐富的案例和場景,引導讀者從理論走向實踐,真正領悟和掌握大模型本地化應用的精髓。
    全書共分13章,全方位、多角度地展示了大模型本地化實戰的完整方案,內容包括大模型時代的開端、PyTorch 2.0深度學習環境搭建、基於gradio的雲上自托管ChatGLM3部署實戰、使用ChatGLM3與LangChain實現知識圖譜抽取和智能問答、適配ChatGLM3終端的Template與Chain詳解、ChatGLM3多文本檢索的增強生成實戰、構建以人為本的ChatGLM3規範化Prompt提示工程、使用ChatGLM3的思維鏈構建、GLM源碼分析與文本生成實戰、低資源單GPU微調ChatGLM3實戰、會使用工具的ChatGLM3、上市公司財務報表非結構化信息抽取實戰、上市公司財務報表智能問答與財務預警實戰。
    本書適合大模型的初學者、有一定基礎的大模型研究人員、大模型應用開發人員。同時,本書還可作為高等院校或高職高專相關專業大模型課程的教材,助力培養新一代的大模型領域人才。

作者介紹
王曉華|責編:夏毓彥
    王曉華,電腦專業講師,長期講授面向對象程序設計、數據結構、Hadoop程序設計等研究生和本科生相關課程;主要研究方向為雲計算、數據挖掘。曾主持和參與多項國家和省級科研課題,獨立科研項目獲省級成果認定,發表過多篇論文,擁有一項國家專利。著有《Spark MLlib機器學習實踐》《TensorFlow深度學習應用實踐》《OpenCV+TensorFlow深度學習與電腦視覺實戰》《TensorFlow 2.0卷積神經網路實戰》《TensorFlow+Keras自然語言處理實戰》等圖書。

目錄
第1章  大模型時代的開端
  1.1  大模型的歷史與發展
    1.1.1  大模型的「湧現」
    1.1.2  深度學習與大模型的起源
    1.1.3  大模型的概念與特點
    1.1.4  大模型開啟了深度學習的新時代
  1.2  為什麼要使用大模型
    1.2.1  大模型與普通模型的區別
    1.2.2  為什麼選擇ChatGLM
    1.2.3  大模型應用場合與發展趨勢
  1.3  本章小結
第2章  PyTorch 2.0深度學習環境搭建
  2.1  安裝Python開發環境
    2.1.1  Miniconda的下載與安裝
    2.1.2  PyCharm的下載與安裝
    2.1.3  softmax函數練習
  2.2  安裝PyTorch 2.0
    2.2.1  NVIDIA 10/20/30/40系列顯卡選擇的GPU版本
    2.2.2  PyTorch 2.0 GPU NVIDIA運行庫的安裝
    2.2.3  Hello PyTorch
  2.3  Hello ChatGLM
    2.3.1  ChatGLM3簡介與安裝
    2.3.2  CPU版本的ChatGLM3推演
    2.3.3  GPU(INT4或INT8量化)版本的ChatGLM3推演
    2.3.4  GPU(half或float量化)版本的ChatGLM3推演
    2.3.5  離線狀態的ChatGLM3的使用
    2.3.6  ChatGLM的高級使用
  2.4  本章小結
第3章  基於gradio的雲上自托管ChatGLM3部署實戰
  3.1  gradio的基本使用詳解
    3.1.1  從gradio的Interface開始
    3.1.2  gradio輸入與輸出組件
    3.1.3  啟動gradio的launch
    3.1.4  gradio中多樣化的輸入和輸出組件
    3.1.5  gradio中常用的幾個組件
    3.1.6  使用gradio搭建視頻上色服務
  3.2  基於gradio的貓狗分類可視化訓練與預測實戰
    3.2.1  運行環境與數據集的準備
    3.2.2  模型的設計
    3.2.3  PyTorch模型訓練的基本流程
    3.2.4  可視化訓練流程
    3.2.5  使用訓練好的模型完成gradio可視化圖像分類
  3.3  基於網頁端的ChatGLM3部署和使用
    3.3.1  使用gradio搭建ChatGLM3網頁客戶端
    3.3.2  使用ChatGLM3自帶的網頁客戶端
  3.4  基於私有雲服務的ChatGLM3部署和使用
    3.4.1  使用FastAPI完成ChatGLM3私有雲交互埠的搭建(重要)
    3.4.2  基於streamlit的ChatGLM3自帶的網頁客戶端
  3.5  本章小結
第4章  使用ChatGLM3與LangChain實現知識圖譜抽取和智能問答

  4.1  當ChatGLM3遇見LangChain
    4.1.1  LangChain的基本構成、組件與典型場景
    4.1.2  確認統一地址的ChatGLM3部署方案
    4.1.3  使用ChatGLM3構建LangChain的LLM終端
    4.1.4  從一個簡單的提示模板開始
    4.1.5  ChatGLM3格式化提示詞的構建與使用
  4.2  ChatGLM3+ LangChain搭建專業問答機器人
    4.2.1  使用LangChain的LLM終端完成文本問答
    4.2.2  數據準備與基礎演算法分析
    4.2.3  使用LangChain完成提示語Prompt工程
    4.2.4  基於ChatGLM3的LLM終端完成專業問答
  4.3  使用ChatGLM3的LLM終端搭建知識圖譜抽取與智能問答
    4.3.1  基於ChatGLM3的LLM終端完成知識圖譜抽取
    4.3.2  基於ChatGLM3的LLM終端完成智能問答
  4.4  本章小結
第5章  適配ChatGLM3終端的Template與Chain詳解
  5.1  基於輸入模板的人機交互
    5.1.1  提示模板的4種類型
    5.1.2  可嵌套的提示模板
  5.2  Template中示例的最佳選擇
    5.2.1  基於長度的輸出示例
    5.2.2  基於相似度的輸出示例
  5.3  使用Chain提高ChatGLM3的能力
    5.3.1  Chain的數學計算方法
    5.3.2  多次驗證檢查器
  5.4  LangChain中的記憶功能
    5.4.1  ConversationChain會話鏈的使用
    5.4.2  系統memory的使用
  5.5  基於ChatGLM3終端撰寫劇情梗概、評論與宣傳文案實戰
    5.5.1  對過程進行依次調用的順序鏈SimpleSequentialChain
    5.5.2  對過程進行依次調用的順序鏈SequentialChain
    5.5.3  對順序鏈添加額外參數的方法
  5.6  本章小結
第6章  ChatGLM3多文本檢索的增強生成實戰
  6.1  使用自然語言處理方法對目標進行查找
    6.1.1  數據集的準備
    6.1.2  分別基於BM25與LLM終端進行目標查找的方法
    6.1.3  建立工業級標準化輸出:LLM終端與BM25結合
  6.2  基於LLM終端完成文本內容抽取與文本問答
    6.2.1  讀取目標內容
    6.2.2  LangChain對文檔的讀取與分割方法
    6.2.3  基於LangChain的文本分塊
    6.2.4  找到最近似問題的文本段落
    6.2.5  使用LLM終端完成智能文本問答
  6.3  使用LLM終端完成反向問題推斷
    6.3.1  文本問題提取實戰
    6.3.2  存儲提取后的內容
  6.4  本章小結
第7章  構建以人為本的ChatGLM3規範化Prompt提示工程
  7.1  提示工程模板構建的輸入與輸出格式

    7.1.1  提示模板的輸入格式
    7.1.2  提示模板的輸出格式
  7.2  提示工程模板高級用法
    7.2.1  提示模板的自定義格式
    7.2.2  提示模板的FewShotPromptTemplate格式
    7.2.3  部分格式化的提示模板詳解
  7.3  結合提示工程的網頁搜索服務實戰
    7.3.1  網頁搜索的API實現
    7.3.2  網頁問答提示模板的實現
    7.3.3  結合網頁搜索的LLM終端問答實戰
  7.4  本章小結
第8章  使用ChatGLM3的思維鏈構建
  8.1  思維鏈初探
    8.1.1  思維鏈源於人類使用自然語言的概念來理解事物
    8.1.2  思維鏈的優勢與應用場景
  8.2  思維鏈詳解及其實戰
    8.2.1  思維鏈詳解
    8.2.2  基於ChatGLM3的思維鏈實戰
  8.3  本章小結
第9章  GLM源碼分析與文本生成實戰
  9.1  GLM組件詳解
    9.1.1  GLM模型架構重大突破:旋轉位置編碼
    9.1.2  添加旋轉位置編碼的注意力機制
    9.1.3  新型的激活函數GLU詳解
    9.1.4  GLM「三角掩碼」與「錯位」輸入輸出格式詳解
  9.2  GLM整體架構詳解與文本生成實戰
    9.2.1  調整架構順序的GLMBlock
    9.2.2  自定義GLM模型(單文本生成版)
  9.3  本章小結
第10章  低資源單GPU微調ChatGLM3實戰
  10.1  什麼是大模型微調
    10.1.1  大模型微調的作用
    10.1.2  大模型微調技術有哪些
    10.1.3  參數高效微調詳解
  10.2  ChatGLM3大模型微調的準備內容
    10.2.1  從數據準備看ChatGLM3微調:有監督微調詳解
    10.2.2  從實施看ChatGLM3微調:LoRA詳解
    10.2.3  適配ChatGLM3微調的輔助庫:PEFT詳解
  10.3  虛擬客服多輪問答實戰
    10.3.1  ChatGLM3數據輸入結構和處理函數
    10.3.2  ChatGLM3微調訓練
    10.3.3  ChatGLM3微調推理
  10.4  加速的秘密:accelerate訓練方法與模型量化詳解
    10.4.1  加速器accelerate詳解與完整代碼編寫
    10.4.2  加速的秘密1:大模型的量化技術
    10.4.3  加速的秘密2:大模型的INT8量化方案
    10.4.4  加速的秘密3:大模型ChatGLM3中的量化源碼分析與實踐
  10.5  更快的量化訓練方案:QLoRA基礎內容詳解
    10.5.1  加速的秘密4:基於bitsandbytes的ChatGLM3量化QLoRA實現
    10.5.2  加速的秘密5:QLoRA詳解

    10.5.3  微調的目的:讓生成的結果更聚焦于任務
  10.6  QLoRA微調文本生成實戰
    10.6.1  數據處理
    10.6.2  損失函數設計
    10.6.3  基於QLoRA的ChatGLM3文本生成微調實戰
    10.6.4  基於QLoRA的ChatGLM3文本生成
  10.7  本章小結
第11章  會使用工具的ChatGLM
  11.1  ChatGLM3調用工具源碼詳解與實戰
    11.1.1  Python調用工具詳解
    11.1.2  ChatGLM3工具調用流程詳解
    11.1.3  大模型ChatGLM3工具調用實戰詳解
    11.1.4  大模型ChatGLM3工具調用原理詳解
    11.1.5  ChatGLM3消息傳遞方式詳解
  11.2  ChatGLM3官方工具註冊與調用源碼分析與實戰
    11.2.1  Python中的裝飾器與回調函數
    11.2.2  ChatGLM3官方工具函數的註冊源碼分析詳解
    11.2.3  大模型ChatGLM3官方工具調用的判定依據詳解
    11.2.4  ChatGLM3官方工具函數的調用分析詳解
    11.2.5  ChatGLM3調用工具分析與實戰演示
  11.3  ChatGLM3實戰:構建個人助理之美妝助手
    11.3.1  背景和參考資料設定
    11.3.2  美妝助手的使用實戰
  11.4  本章小結
第12章  上市公司財務報表非結構化信息抽取實戰
  12.1  超長文本處理功能的ChatGLM3與真實財務報表的處理
    12.1.1  ChatGLM3-6B-32K模型的獲取與緩存
    12.1.2  超大規模的2020—2023年真實中國股票市場年度財務報表資料庫的建立
  12.2  單報表非結構化信息抽取實戰
    12.2.1  單報表數據探查與提取信息結構化處理
    12.2.2  單報表數據非結構化信息抽取的實現
  12.3  本章小結
第13章  上市公司財務報表智能問答與財務預警實戰
  13.1  基於ChatGLM3的非結構化數據抽取與大規模財務報表資料庫的建立
    13.1.1  逐行代碼講解使用ChatGLM3對關鍵數據進行抽取
    13.1.2  大規模上市公司財務報表目標欄位抽取函數的建立
    13.1.3  大規模上市公司財務報表目標欄位資料庫的建立
  13.2  基於自然語言的上市公司財務報表智能問答與財務預警實戰
    13.2.1  使用自然語言結合ChatGLM3實現上市公司財務報表智能問答與預警解決方案
    13.2.2  使用自然語言結合ChatGLM3-6B實現上市公司財務報表智能問答與預警解決方案
    13.2.3  使用自然語言結合ChatGLM3實現上市公司財務報表智能問答與預警解決方案
  13.3  本章小結
附錄  大模型的「幻覺」

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032