幫助中心 | 我的帳號 | 關於我們

AI大模型系統開發技術(人工智慧面向新工科專業建設電腦系列教材國家級一流本科專業配套教材)

  • 作者:編者:鞠時光//周從華//宋香梅//王秀紅|責編:楊帆//戰曉雷|總主編:張堯學
  • 出版社:清華大學
  • ISBN:9787302686088
  • 出版日期:2025/05/01
  • 裝幀:平裝
  • 頁數:154
人民幣:RMB 59 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書系統介紹行業AI大模型系統開發技術。全書共10章,主要內容包括AI大模型概述、AI基礎演算法、深度學習技術與工具、生成式模型、數據標注技術、注意力機制、Transformer架構解析、自然語言處理中的預訓練模型、微調技術以及大語言模型系統安全技術。本書內容邏輯清晰、循序漸進,從理論到實踐,從演算法到工程實現,引導讀者深入理解和逐步掌握行業AI大模型開發關鍵技術和方法。
    本書適合作為高等學校理工科研究生、電腦相關專業高年級本科生相關專業課教材,也可供行業AI大模型系統開發人員參考。

作者介紹
編者:鞠時光//周從華//宋香梅//王秀紅|責編:楊帆//戰曉雷|總主編:張堯學

目錄
第1章  AI大模型概述
  1.1  AI大模型的定義
  1.2  AI大模型發展概況
    1.2.1  語言模型演進
    1.2.2  AI大模型家族
    1.2.3  國內外AI大模型研究現狀
  1.3  AI大模型基礎設施
    1.3.1  計算資源
    1.3.2  存儲系統
    1.3.3  網路帶寬
    1.3.4  AI演算法和優化技術
第2章  AI基礎演算法
  2.1  AI基礎演算法概述
    2.1.1  基於集合論的演算法
    2.1.2  基於概率統計的演算法
    2.1.3  基於圖論的演算法
    2.1.4  基於空間幾何的演算法
    2.1.5  基於演化計算的演算法
    2.1.6  基於人工神經網路的演算法
  2.2  專家系統
    2.2.1  專家系統的一般結構
    2.2.2  專家系統的構建
    2.2.3  專家系統的發展
  2.3  機器學習
  2.4  擬人機器學習
    2.4.1  擬人機器學習的概念
    2.4.2  擬人系統的瓶頸問題
  2.5  人工情感計算
    2.5.1  文本情感計算
    2.5.2  語音情感計算
    2.5.3  視覺情感計算
第3章  深度學習技術與工具
  3.1  詞向量模型
    3.1.1  滑動窗口
    3.1.2  Word2Vec模型
    3.1.3  Word2Vec訓練流程
  3.2  卷積神經網路
    3.2.1  卷積神經網路結構
    3.2.2  卷積神經網路的特點
    3.2.3  卷積神經網路在自然語言處理領域中的應用
  3.3  循環神經網路
    3.3.1  典型的循環神經網路單向傳播
    3.3.2  雙向循環神經網路
    3.3.3  深度循環神經網路
    3.3.4  循環神經網路的主要應用領域
第4章  生成式模型
  4.1  混合高斯模型
  4.2  隱馬爾可夫模型
    4.2.1  隱馬爾可夫模型的定義
    4.2.2  隱馬爾可夫模型的表示

    4.2.3  隱馬爾可夫模型的使用
    4.2.4  維特比演算法
  4.3  受限玻爾茲曼機
    4.3.1  受限玻爾茲曼機模型結構
    4.3.2  配分函數
  4.4  深度置信網路
    4.4.1  深度置信網路模型結構
    4.4.2  深度置信網路的目標函數
    4.4.3  深度置信網路的訓練
  4.5  Seq2Seq生成模型
    4.5.1  語義向量只作為初始狀態參與運算
    4.5.2  語義向量參與解碼的全過程
    4.5.3  循環神經網路輸出層使用激活函數
第5章  
    4.5.4  Seq2Seq模型的訓練過程
    4.5.5  變分自編碼器
      4.5.5.1  變分下界的求法
      4.5.5.2  重參數化
  4.6  生成對抗網路
    4.6.1  生成對抗網路的基本原理
    4.6.2  深度卷積生成對抗網路
    4.6.3  基於殘差網路的結構
  4.7  數據標注技術
    4.7.1  數據標注的定義與分類
    4.7.2  數據標注的任務
    4.7.3  數據標注的流程及工具
    4.7.4  數據標注的應用場景
  5.1  數據標注實例——情感分析
    5.1.1  情感分析中的數據標注
    5.1.2  標注工具
    5.1.3  標注流程
  5.2  注意力機制
    5.2.1  引入注意力的編碼器-解碼器框架
    5.2.2  自注意力機制的基本原理
    5.2.3  自注意力操作過程
    5.2.4  單輸入多頭注意力
    5.2.5  多輸入多頭注意力
    5.2.6  位置編碼
    5.2.7  殘差連接方法
    5.2.8  類別注意力機制
    5.2.9  空間注意力機制
    5.2.10  通道注意力機制
    5.2.11  空間和通道注意力機制的融合
第6章  Transformer架構解析
  6.1  Transformer的原始框架
  6.2  輸入輸出嵌入層
    6.2.1  BPE演算法
    6.2.2  位置編碼
  6.3  編碼部分
    6.3.1  掩碼張量

    6.3.2  Transformer的自注意力模塊
    6.3.3  Transformer的多頭注意力機制
    6.3.4  前饋連接層
    6.3.5  規範化層
    6.3.6  殘差連接
  6.4  解碼部分
    6.4.1  解碼器的作用
    6.4.2  解碼器多頭注意力機制
  6.5  輸出處理層
第7章  自然語言處理中的預訓練模型
  7.1  預訓練模型概述
    7.1.1  預訓練模型的結構
    7.1.2  預訓練模型壓縮技術
    7.1.3  預訓練任務
    7.1.4  多模態預訓練模型
  7.2  預訓練模型適應下游任務
    7.2.1  遷移學習
    7.2.2  模型遷移方法
  7.3  預訓練模型在自然語言處理任務中的應用
    7.3.1  一般評價基準
    7.3.2  問答
    7.3.3  情感分析
    7.3.4  命名實體識別
    7.3.5  機器翻譯
    7.3.6  摘要
    7.3.7  對抗檢測和防禦
  7.4  預訓練語言模型GPT
  7.5  預訓練語言模型BERT
    7.5.1  BERT模型結構
    7.5.2  嵌入操作層
    7.5.3  編碼層
    7.5.4  預測層
  7.6  大模型部署
    7.6.1  大模型部署框架
    7.6.2  大模型部署步驟
    7.6.3  大模型部署方式
第8章  微調技術
  8.1  微調概述
  8.2  微調神經網路的方法
  8.3  自適應微調
  8.4  提示學習
    8.4.1  提示學習微調模型的基本組成
    8.4.2  提示學習微調流程
  8.5  增量微調模型
  8.6  基於提示的微調
第9章  大語言模型系統安全技術
  9.1  大語言模型面臨的安全挑戰
    9.1.1  大語言模型應用面臨的威脅
    9.1.2  對抗攻擊的類型
  9.2  大語言模型應用的安全核心組成

    9.2.1  數據安全
    9.2.2  模型安全
    9.2.3  基礎設施安全
    9.2.4  倫理道德
  9.3  大語言模型的對抗攻擊與防禦
    9.3.1  建立安全框架
    9.3.2  建設大語言模型應用安全開發策略
    9.3.3  大語言模型應用防護方案
    9.3.4  應對攻擊的策略
    9.3.5  大語言模型部署過程中的安全防禦策略
思考題
附錄A  BERT源碼分析
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032