幫助中心 | 我的帳號 | 關於我們

全解深度學習(九大核心演算法)/跟我一起學人工智慧

  • 作者:編者:于浩文|責編:趙佳霓
  • 出版社:清華大學
  • ISBN:9787302679103
  • 出版日期:2025/03/01
  • 裝幀:平裝
  • 頁數:286
人民幣:RMB 79 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書專註于介紹基於深度學習的演算法。從探索深度學習的數學基礎和理論架構,到九大經典的深度學習演算法,旨在為讀者提供一個從基礎到高級的全方位指導。截至2024年,書中介紹的9個演算法幾乎涵蓋了整個深度學習領域的經典和前沿演算法。
    本書在第1章和第2章介紹了深度學習的基礎:數學基礎與神經網路演算法。從第3章開始,書籍逐步引領讀者進入深度學習的核心領域,即一些基於神經網路的變體演算法:卷積神經網路、循環神經網路、編碼器-解碼器模型,以及目前火熱的變形金剛演算法、生成對抗網路和擴散模型。這些章節不僅講解了各個模型的基礎理論和關鍵技術,還詳細介紹了這些模型在自然語言處理、電腦視覺等領域的應用案例。書籍的後半部分聚焦于圖神經網路和強化學習這些前沿演算法,深入淺出地講解了它們的基礎知識、演算法變體及經典模型等高級話題。這些內容為讀者理解和應用深度學習技術提供了堅實的理論基礎。
    本書適合對深度學習領域感興趣的本科生、研究生及相關行業的從業者閱讀。

作者介紹
編者:于浩文|責編:趙佳霓
    于浩文,南安普頓大學人工智慧專業碩士一等學位,曼徹斯特大學生物信息與系統生物碩士一等學位;湖南點頭教育科技有限公司聯合創始人。在SCI上發表論文三篇,IEEE上發表論文一篇,獲國家技術專利一項。

目錄
配套資源
第1章  深度學習數學基礎
  1.1  高等數學之微積分
    1.1.1  重識微分
    1.1.2  微分的解讀
    1.1.3  微分與函數的單調性和凹凸性
    1.1.4  微分的鏈式法則
    1.1.5  偏微分與全微分
    1.1.6  梯度與方嚮導數
    1.1.7  泰勒公式與麥克勞林公式
    1.1.8  拉格朗日乘子法
    1.1.9  重識積分
    1.1.10  不定積分和反導數
    1.1.11  定積分與牛頓-萊布尼茨公式
    1.1.12  微積分的基本定理
  1.2  線性代數
    1.2.1  線性方程組
    1.2.2  線性方程組的矩陣求解法
    1.2.3  矩陣乘法
    1.2.4  向量的數乘
    1.2.5  向量的加法
    1.2.6  向量的線性組合
    1.2.7  向量空間
    1.2.8  向量的線性相關和線性無關
    1.2.9  向量乘法
    1.2.10  向量的正交
    1.2.11  向量與矩陣
    1.2.12  特徵值和特徵向量
  1.3  概率論
    1.3.1  頻數
    1.3.2  數據位置
    1.3.3  數據散布
    1.3.4  隨機變數的類型和概率分佈
    1.3.5  理論概率分佈之常見的離散型分佈
    1.3.6  理論概率分佈之常見的連續型分佈
    1.3.7  經驗概率分佈
  1.4  統計學
    1.4.1  大數定律與中心極限定理
    1.4.2  參數估計
    1.4.3  統計量和抽樣分佈
    1.4.4  假設檢驗
    1.4.5  相關性分析
第2章  神經網路理論基礎
  2.1  線性模型
    2.1.1  線性模型的定義
    2.1.2  損失函數
    2.1.3  梯度下降演算法
    2.1.4  廣義線性模型
  2.2  回歸與分類
    2.2.1  回歸和分類問題的定義與聯繫

    2.2.2  線性模型解決回歸和分類問題
  2.3  感知機模型
    2.3.1  感知機模型定義與理解
    2.3.2  神經網路演算法與深度學習模型
    2.3.3  反向傳播演算法
  2.4  激活函數
    2.4.1  激活函數的定義與作用
    2.4.2  常用激活函數
  2.5  維度詛咒
    2.5.1  神經網路的層級結構
    2.5.2  維度詛咒與過擬合
  2.6  過擬合與欠擬合
    2.6.1  過擬合和欠擬合現象的定義
    2.6.2  過擬合和欠擬合現象的產生原因
  2.7  正則
    2.7.1  L1和L2正則
    2.7.2  DropOut
  2.8  數據增強
  2.9  數值不穩定性
第3章  卷積神經網路
  3.1  卷積神經網路基礎
    3.1.1  卷積神經網路的計算
    3.1.2  卷積的設計思想
    3.1.3  卷積進行特徵提取的過程
    3.1.4  池化與採樣
    3.1.5  卷積神經網路的感受野
    3.1.6  卷積模型實現圖像識別
    3.1.7  第1個卷積神經網路模型:LeNet
  3.2  卷積的變體演算法
    3.2.1  逐通道卷積
    3.2.2  逐點卷積
    3.2.3  深度可分離卷積
    3.2.4  組卷積
    3.2.5  空間可分離卷積
    3.2.6  空洞卷積
    3.2.7  轉置卷積
    3.2.8  稀疏卷積
    3.2.9  多維卷積
第4章  循環神經網路
  4.1  循環神經網路基礎
    4.1.1  序列數據
    4.1.2  RNN模型
    4.1.3  語言模型
    4.1.4  文本預處理
    4.1.5  建模和預測
  4.2  循環神經網路的變體模型
    4.2.1  門控循環單元
    4.2.2  長短期記憶網路
    4.2.3  深度循環神經網路
    4.2.4  雙向循環神經網路

    4.2.5  基於注意力的循環神經網路
第5章  編碼器-解碼器模型
  5.1  編碼器-解碼器模型基礎
    5.1.1  編碼器-解碼器模型的基本結構
    5.1.2  編碼器-解碼器模型在自然語音處理領域的應用
    5.1.3  編碼器-解碼器模型在電腦視覺領域的應用
    5.1.4  自編碼器模型
  5.2  CV中的編碼器-解碼器:VAE模型
    5.2.1  VAE模型簡明指導
    5.2.2  潛空間
    5.2.3  最大似然估計
    5.2.4  隱變數模型
    5.2.5  蒙特卡洛採樣
    5.2.6  變分推斷
  5.3  NLP中的編碼器-解碼器:Seq2Seq模型
    5.3.1  Seq2Seq編碼器
    5.3.2  Seq2Seq解碼器
    5.3.3  Seq2Seq的Attention機制
    5.3.4  Seq2Seq的Teacher Forcing策略
    5.3.5  Seq2Seq評價指標BLEU
    5.3.6  Seq2Seq模型小結
第6章  變形金剛演算法
  6.1  演算法基礎
    6.1.1  演算法概況
    6.1.2  自注意力層
    6.1.3  多頭自注意力層
    6.1.4  編碼器結構
    6.1.5  解碼器結構
    6.1.6  線性頂層和Softmax層
    6.1.7  輸入數據的向量化
  6.2  NLP中的Transformer模型
    6.2.1  BERT
    6.2.2  GPT
  6.3  CV中的Transformer模型
    6.3.1  Vision Transformer
    6.3.2  Swin Transformer
  6.4  Transformer小結
第7章  生成對抗網路
  7.1  生成對抗網路基礎
    7.1.1  GAN的模型結構
    7.1.2  GAN模型的訓練
  7.2  改進的GAN
    7.2.1  模式崩潰
    7.2.2  模式崩潰的解決方法
  7.3  f-GAN
    7.3.1  GAN模型損失與散度
    7.3.2  GAN損失的通用框架f散度
  7.4  WGAN
    7.4.1  傳統的GAN模型梯度消失的分析
    7.4.2  Wasserstein距離

    7.4.3  由Wasserstein距離推導WGAN的損失
    7.4.4  使用梯度懲罰
  7.5  CycleGAN
    7.5.1  循環一致性
    7.5.2  對抗訓練
    7.5.3  損失函數
    7.5.4  訓練流程
    7.5.5  小結
第8章  擴散模型
  8.1  擴散模型基礎
    8.1.1  擴散模型的基本原理
    8.1.2  DDPM擴散模型與變分自編碼器的比較
  8.2  去噪擴散概率模型(DDPM)
    8.2.1  DDPM前向擴散簡明指導
    8.2.2  DDPM反向去噪過程
    8.2.3  DDPM擴散模型的損失函數
    8.2.4  DDPM擴散模型的使用
第9章  圖神經網路
  9.1  圖神經網路演算法基礎
    9.1.1  圖的表示
    9.1.2  圖數據的任務類型
    9.1.3  圖數據的嵌入
  9.2  圖神經網路模型
    9.2.1  消息傳遞神經網路
    9.2.2  圖神經網路的層結構與連接性
    9.2.3  圖神經網路模型的訓練
  9.3  圖神經網路演算法基礎的變體
    9.3.1  GCN
    9.3.2  GraphSAGE
    9.3.3  GAT
第10章  強化學習
  10.1  強化學習基礎概念
    10.1.1  概述
    10.1.2  強化學習基本概念
    10.1.3  理解強化學習中的隨機性
  10.2  基於價值的深度強化學習(DQN)
    10.2.1  DQN介紹
    10.2.2  貝爾曼方程與時序差分學習
    10.2.3  訓練神經網路
    10.2.4  估計網路與目標網路
  10.3  基於策略的深度強化學習
    10.3.1  演算法介紹:基於策略的強化學習
    10.3.2  策略優化
    10.3.3  對比梯度上升和時序差分
  10.4  演員-評論家模型
    10.4.1  演算法介紹:演員-評論家模型
    10.4.2  演員-評論家模型演算法訓練
    10.4.3  演員-評論家模型演算法的優缺點
    10.4.4  對比生成對抗網路和演員-評論家模型演算法

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032