幫助中心 | 我的帳號 | 關於我們

揭秘大模型(從原理到實戰)

  • 作者:文亮//江維|責編:劉雅思
  • 出版社:人民郵電
  • ISBN:9787115653352
  • 出版日期:2025/01/01
  • 裝幀:平裝
  • 頁數:256
人民幣:RMB 79.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書從技術角度深度解析大模型的原理,從大模型的基礎概念及領域發展現狀入手,概述大模型的理論基礎,介紹OpenAI GPT、清華大學GLM、Meta Llama等主流大模型的技術原理,並從大模型參數高效微調、大模型指令微調、大模型訓練優化和大模型推理優化等多角度解析大模型背後的技術,帶領讀者全方位掌握大模型的原理和實踐方法。本書最後介紹私有大模型的構建,手把手指導讀者做技術選型並搭建自己的私有大模型。
    本書適合人工智慧領域有大模型開發需求或對大模型技術感興趣的技術人員閱讀,也適合普通用戶擴展了解大模型的前沿應用。

作者介紹
文亮//江維|責編:劉雅思

目錄
第1章  大模型簡介
  1.1  大模型初探
    1.1.1  OpenAl大模型ChatGPT
    1.1.2  國內大模型——360智腦
  1.2  大模型的概念
  1.3  百花齊放——大模型發展現狀
  1.4  壓縮即智能——為什麼ChatGPT擁有智能
    1.4.1  直觀理解通用人工智慧
    1.4.2  如何實現無損壓縮
    1.4.3  GPT是對數據的無損壓縮
  1.5  小結
  1.6  參考文獻
第2章  大模型理論基礎
  2.1  什麼是語言模型
  2.2  傳統語言模型
    2.2.1  循環神經網路(RNN)
    2.2.2  長短期記憶(LSTM)網路
    2.2.3  門控循環單元(GRU)
  2.3  大模型基礎結構——Transformer
    2.3.1  Transformer的模型結構
    2.3.2  Transformer輸入表示
    2.3.3  多頭注意力
    2.3.4  編碼器結構
    2.3.5  解碼器結構
    2.3.6  Softmax輸出
  2.4  Transformer應用實踐——機器翻譯
    2.4.1  葡萄牙文翻譯為英文
    2.4.2  英文翻譯為中文
  2.5  小結
  2.6  參考文獻
第3章  OpenAI GPT系列大模型
  3.1  GPT發展歷史——從GPT-1到GPT-4
  ……
第4章  清華大學通用預訓練模型——GLM
第5章  Meta開源大模型——Llama
第6章  大模型參數高效微調
第7章  大模型指令微調
第8章  大模型訓練優化
第9章  大模型推理優化
第10章  AIGC和大模型結合
第11章  大模型和系統結合
第12章  構建私有大模型

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032