幫助中心 | 我的帳號 | 關於我們

深度學習(新一代信息技術人工智慧戰略性新興領域十四五高等教育系列教材)

  • 作者:編者:方勇純//許靜//張敬林//李歡//郭憲|責編:吉玲
  • 出版社:機械工業
  • ISBN:9787111776109
  • 出版日期:2024/12/01
  • 裝幀:平裝
  • 頁數:268
人民幣:RMB 59.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書主要介紹深度學習方面的基本理論和方法,包括基礎性內容、提高性內容和應用三部分。其中,第一部分基礎性內容是深度學習最核心的部分,具體包括深度學習基礎、全連接網路、卷積神經網路、循環神經網路以及優化演算法。第二部分是提高性內容,主要闡述最新發展的一些技術,可供課時充足的專業進行學習。這部分主要包括生成對抗網路與擴散模型、圖神經網路、Transformer與Mamba架構以及強化學習。第三部分是應用部分,具體包括電腦視覺、自然語言處理以及大語言模型。
    本書可作為普通高等院校人工智慧、智能科學與技術、電腦、自動化等專業深度學習課程的教材和參考書,也可供從事深度學習等方面工作的研究生和工程技術人員參考使用。

作者介紹
編者:方勇純//許靜//張敬林//李歡//郭憲|責編:吉玲

目錄
前言
第1章  深度學習基礎
  1.1  深度學習應用舉例
    1.1.1  ChatGPT
    1.1.2  圖像及視頻生成
    1.1.3  古捲軸破譯
  1.2  機器學習基礎
    1.2.1  機器學習簡介與基本概念
    1.2.2  機器學習問題分類
    1.2.3  數據準備和預處理
    1.2.4  構建機器學習模型
    1.2.5  模型訓練與評估
    1.2.6  模型泛化能力
  1.3  微積分基礎
    1.3.1  微分與導數
    1.3.2  函數近似與泰勒展開
    1.3.3  多元函數及其偏導數
    1.3.4  複合函數及鏈式法則
  1.4  線性代數基礎
    1.4.1  向量
    1.4.2  矩陣
    1.4.3  梯度
    1.4.4  特徵分解與奇異值分解
  1.5  概率統計基礎
    1.5.1  隨機變數
    1.5.2  概率分佈
    1.5.3  期望與方差
    1.5.4  條件概率與貝葉斯法則
    1.5.5  極大似然估計
  本章小結
  思考題與習題
  參考文獻
第2章  全連接網路
  2.1  網路結構
    2.1.1  生物神經結構
    2.1.2  隱藏層
  2.2  激活函數
    2.2.1  ReLU函數
    2.2.2  SoftPlus函數
    2.2.3  Sigmoid函數
    2.2.4  tanh函數
    2.2.5  GeLU函數
    2.2.6  其他激活函數
  2.3  損失函數
    2.3.1  均方誤差損失
    2.3.2  平均絕對誤差損失
    2.3.3  平滑L1損失
    2.3.4  交叉熵損失
    2.3.5  KL散度損失
    2.3.6  其他損失函數

  2.4  反向傳播
    2.4.1  標量形式的反向傳播
    2.4.2  梯度消失與梯度爆炸
    2.4.3  計算圖
    2.4.4  向量形式的反向傳播
  2.5  異或問題
  本章小結
  思考題與習題
  參考文獻
第3章  卷積神經網路
  3.1  卷積層
    3.1.1  卷積運算
    3.1.2  卷積的特點
    3.1.3  卷積的數學性
  3.2  其他卷積類型
    3.2.1  轉置卷積
    3.2.2  空洞卷積
    3.2.3  分組卷積
    3.2.4  可分離卷積
  3.3  池化層
    3.3.1  平均池化
    3.3.2  最大池化
    3.3.3  最大池化和平均池化的區別
    3.3.4  PyTorch實現
  3.4  卷積層與全連接層比較
  3.5  經典網路結構
    3.5.1  LeNet
    3.5.2  AlexNet
    3.5.3  VGG
    3.5.4  GoogleNet
    3.5.5  ResNet
  3.6  卷積神經網路代碼實現
  本章小結
  思考題與習題
  參考文獻
第4章  循環神經網路
  4.1  序列問題
  4.2  循環神經網路結構
    4.2.1  隱狀態
    4.2.2  權值共享
    4.2.3  輸入與輸出編碼
    4.2.4  深度循環網路
    4.2.5  雙向循環網路
    4.2.6  梯度消失與爆炸
    4.2.7  PyTorch實現
  4.3  門控循環單元
    4.3.1  GRU單元
    4.3.2  PyTorch實現
  4.4  長短時記憶網路
    4.4.1  長短時記憶網路中的門控單元

    4.4.2  LSTM的歷史和相關變體
    4.4.3  PyTorch實現
  4.5  編碼器-解碼器架構
  本章小結
  思考題與習題
  參考文獻
第5章  優化演算法
  5.1  訓練深度網路的挑戰
    5.1.1  凸函數與非凸函數
    5.1.2  局部極小值點與鞍點
    5.1.3  深度學習訓練中的其他挑戰
  5.2  隨機梯度下降
    5.2.1  梯度下降
    5.2.2  隨機梯度下降
    5.2.3  小批量SGD
    5.2.4  初始化
    5.2.5  學習率
    5.2.6  梯度截斷
  5.3  動量法
    5.3.1  重球法
    5.3.2  指數移動平均
    5.3.3  Nesterov加速法
    5.3.4  PyTorch實現
  5.4  自適應學習率演算法
    5.4.1  AdaGrad
    5.4.2  RMSProp
    5.4.3  Adam
    5.4.4  AdamW
  5.5  批量規範化和層規範化
  本章小結
  思考題與習題
  參考文獻
第6章  生成對抗網路與擴散模型
  6.1  生成對抗網路
    6.1.1  什麼是生成對抗網路
    6.1.2  生成對抗網路的應用範圍
  6.2  生成對抗網路的原理
    6.2.1  生成模型
    6.2.2  判別模型
    6.2.3  訓練過程
  6.3  生成對抗網路的可視化與實踐
    6.3.1  生成對抗網路訓練過程可視化
    6.3.2  生成對抗網路的衍生結構
  6.4  擴散模型
    6.4.1  什麼是擴散模型
    6.4.2  擴散模型的使用範圍
  6.5  擴散模型的原理
    6.5.1  擴散模型的基礎
    6.5.2  擴散模型的核心思想
    6.5.3  擴散模型的數學原理

  6.6  生成對抗網路與擴散模型的結合
    6.6.1  結合的優勢
    6.6.2  結合的改進策略
    6.6.3  擴散模型與AIGC應用
  本章小結
  思考題與習題
  參考文獻
第7章  圖神經網路
  7.1  圖嵌入向量
    7.1.1  節點嵌入
    7.1.2  邊嵌入
    7.1.3  圖嵌入
    7.1.4  圖嵌入方法
  7.2  圖生成模型
    7.2.1  一種圖生成網路IDGL
    7.2.2  GAN在圖上的應用
    7.2.3  基於VAE的圖生成模型(GraphVAE)
    7.2.4  基於GAN的圖生成模型(GraphGAN)
  7.3  圖神經網路方法
    7.3.1  圖卷積神經網路
    7.3.2  圖注意力網路
    7.3.3  動態圖神經網路
    7.3.4  異構圖神經網路
    7.3.5  大規模圖神經網路訓練策略
  7.4  圖神經網路設計——以GCN為例
    7.4.1  模型構建
    7.4.2  基於PyTorch的GCN模型實現
    7.4.3  網路訓練
  7.5  典型應用舉例
    7.5.1  圖神經網路用於節點分類
    7.5.2  圖神經網路用於鏈接預測
    7.5.3  圖神經網路用於圖分類
    7.5.4  圖神經網路在推薦系統中的應用
    7.5.5  圖神經網路在交通預測中的應用
    7.5.6  圖神經網路在計算化學和藥物發現中的應用
    7.5.7  圖神經網路在社交網路分析中的應用
  本章小結
  思考題與習題
  參考文獻
第8章  Transformer與Mamba架構
  8.1  自注意力機制
    8.1.1  自注意力機制的定義
    8.1.2  自注意力機制的數學邏輯
    8.1.3  多頭自注意力
  8.2  Transformer
    8.2.1  定義與原理
    8.2.2  模型結構
    8.2.3  架構分析
  8.3  Vision Transformer
    8.3.1  定義與原理

    8.3.2  模型結構
    8.3.3  架構分析
  8.4  Mamba架構
    8.4.1  定義與原理
    8.4.2  模型結構
    8.4.3  架構分析
  8.5  Vision Mamba
  8.6  性能對比
    8.6.1  Transformer性能分析
    8.6.2  Mamba架構性能分析
    8.6.3  對比與展望
  本章小結
  思考題與習題
  參考文獻
第9章  強化學習
  9.1  有限馬爾可夫決策過程
    9.1.1  形式化定義
    9.1.2  策略與值函數
    9.1.3  最優策略與最優值函數
  9.2  深度值函數強化學習
    9.2.1  Q學習演算法
    9.2.2  深度Q網路
    9.2.3  DQN的改進演算法
  9.3  直接策略搜索方法
    9.3.1  策略梯度演算法
    9.3.2  近端策略優化演算法
    9.3.3  深度確定性策略梯度演算法
  9.4  多智能體強化學習
    9.4.1  多智能體系統的挑戰性
    9.4.2  MADDPG演算法
    9.4.3  值分解強化學習演算法
    9.4.4  MAPPO演算法
  9.5  典型應用舉例
    9.5.1  可控核聚變
    9.5.2  AlphaGo系列機器人
    9.5.3  AlphaStar
  本章小結
  思考題與習題
  參考文獻
第10章  電腦視覺
  10.1  概述
  10.2  圖像分類
    10.2.1  基本概念
    10.2.2  圖像分類基本方法
    10.2.3  應用場景
    10.2.4  發展趨勢
  10.3  目標檢測
    10.3.1  基本概念
    10.3.2  常用數據集
    10.3.3  R-CNN系列模型

    10.3.4  YOLO系列模型
    10.3.5  評價指標
    10.3.6  應用場景
    10.3.7  發展趨勢
  10.4  語義分割
    10.4.1  基本概念
    10.4.2  常用數據集
    10.4.3  經典語義分割模型
    10.4.4  評價指標
    10.4.5  應用場景
    10.4.6  發展趨勢
  本章小結
  思考題與習題
  參考文獻
第11章  自然語言處理
  11.1  概述
  11.2  NLP問題簡介
    11.2.1  自然語言理解
    11.2.2  自然語言生成
  11.3  詞嵌入
    11.3.1  預訓練
    11.3.2  Word2Vec
    11.3.3  負採樣
  11.4  情感分析
    11.4.1  情感分析及數據預處理
    11.4.2  使用循環神經網路
    11.4.3  使用卷積神經網路
    11.4.4  使用Transformer
  11.5  NLP應用——聊天機器人
    11.5.1  問答系統簡介
    11.5.2  基於大語言模型的聊天機器人實踐
  本章小結
  思考題與習題
  參考文獻
第12章  大語言模型
  12.1  BERT模型
    12.1.1  BERT模型架構
    12.1.2  BERT預訓練技術
    12.1.3  用BERT表示文本
  12.2  GPT模型
    12.2.1  GPT模型架構
    12.2.2  GPT預訓練
    12.2.3  GPT1到GPT4的聯繫與區別
  12.3  大語言模型微調方法
    12.3.1  提示詞調優
    12.3.2  前綴調優
    12.3.3  LoRA
    12.3.4  適配器調優
  12.4  多模態語言大模型
    12.4.1  模型架構

    12.4.2  多模態大模型訓練
    12.4.3  多模態語言大模型實例
  12.5  大語言模型驅動的智能體系統
    12.5.1  AI Agent架構
    12.5.2  推理關鍵技術
    12.5.3  智能系統實例
  本章小結
  思考題與習題
  參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032