幫助中心 | 我的帳號 | 關於我們

深度學習的數學--使用Python語言

  • 作者:(美)羅納德·T.紐塞爾|責編:郭泳澤|譯者:辛願
  • 出版社:人民郵電
  • ISBN:9787115607775
  • 出版日期:2024/02/01
  • 裝幀:平裝
  • 頁數:238
人民幣:RMB 89.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    深度學習是一門注重應用的學科。了解深度學習背後的數學原理的人,可以在應用深度學習解決實際問題時游刃有餘。本書通過Python代碼示例來講解深度學習背後的關鍵數學知識,包括概率論、統計學、線性代數、微分等,並進一步解釋神經網路、反向傳播、梯度下降等深度學習領域關鍵知識背後的原理。
    本書適合有一定深度學習基礎、了解Pyho如編程語言的讀者閱讀,也可作為拓展深度學習理論的參考書。

作者介紹
(美)羅納德·T.紐塞爾|責編:郭泳澤|譯者:辛願
    羅納德·T.紐塞爾(Ronald T.Kneusel)自2003年以來一直在工業界從事機器學習的相關工作。他在2016年于科羅拉多大學博爾德分校獲得機器學習博士學位,著有Practical Deep Learning(No Starch Press,2016)、Random Numbers and Computers(Springer,2018)等圖書。

目錄
第1章  搭建舞台
  1.1  組件安裝
    1.1.1  Linux
    1.1.2  macOS
    1.1.3  Windows
  1.2  NumPy
    1.2.1  定義數組
    1.2.2  數據類型
    1.2.3  二維數組
    1.2.4  全0數組和全1數組
    1.2.5  高級索引
    1.2.6  讀寫磁碟
  1.3  SciPy
  1.4  matplotlib
  1.5  scikit-learn
  1.6  小結
第2章  概率論
  2.1  基礎概念
    2.1.1  樣本空間和事件
    2.1.2  隨機變數
    2.1.3  人類不擅於處理概率問題
  2.2  概率法則
    2.2.1  事件的概率
    2.2.2  加法法則
    2.2.3  乘法法則
    2.2.4  加法法則的修正版
    2.2.5  生日難題
    2.2.6  條件概率
    2.2.7  全概率公式
  2.3  聯合概率和邊緣概率
    2.3.1  聯合概率表
    2.3.2  概率的鏈式法則
  2.4  小結
第3章  概率論進階
  3.1  概率分佈
    3.1.1  直方圖與概率
    3.1.2  離散型概率分佈
    3.1.3  連續型概率分佈
    3.1.4  中心極限定理
    3.1.5  大數法則
  3.2  貝葉斯定理
    3.2.1  回到判斷女性是否患有乳腺癌的例子
    3.2.2  更新先驗
    3.2.3  機器學習中的貝葉斯定理
  3.3  小結
第4章  統計學
  4.1  數據類型
    4.1.1  定類數據
    4.1.2  定序數據
    4.1.3  定距數據

    4.1.4  定比數據
    4.1.5  在深度學習中使用定類數據
  4.2  描述性統計量
    4.2.1  均值和中位數
    4.2.2  用於衡量變化的統計量
  4.3  分位數和箱形圖
  4.4  缺失數據
  4.5  相關性
    4.5.1  皮爾森相關性
    4.5.2  斯皮爾曼相關性
  4.6  假設檢驗
    4.6.1  假設
    4.6.2  t檢驗
    4.6.3  曼-惠特尼U檢驗
  4.7  小結
第5章  線性代數
  5.1  標量、向量、矩陣和張量
    5.1.1  標量
    5.1.2  向量
    5.1.3  矩陣
    5.1.4  張量
  5.2  用張量進行代數運算
    5.2.1  數組運算
    5.2.2  向量運算
    5.2.3  矩陣乘法
    5.2.4  克羅內克積
  5.3  小結
第6章  線性代數進階
  6.1  方陣
    6.1.1  為什麼需要方陣
    6.1.2  轉置、跡和冪
    6.1.3  特殊方陣
    6.1.4  三角矩陣
    6.1.5  行列式
    6.1.6  逆運算
    6.1.7  對稱矩陣、正交矩陣和酉矩陣
    6.1.8  對稱矩陣的正定性
  6.2  特徵向量和特徵值
  6.3  向量范數和距離度量
    6.3.1  L范數和距離度量
    6.3.2  協方差矩陣
    6.3.3  馬氏距離
    6.3.4  K-L散度
  6.4  主成分分析
  6.5  奇異值分解和偽逆
    6.5.1  SVD實戰
    6.5.2  SVD的兩個應用
  6.6  小結
第7章  微分
  7.1  斜率

  7.2  導數
    7.2.1  導數的正式定義
    7.2.2  基本法則
    7.2.3  三角函數的求導法則
    7.2.4  指數函數和自然對數的求導法則
  7.3  函數的極小值和極大值
  7.4  偏導數
    7.4.1  混合偏導數
    7.4.2  偏導數的鏈式法則
  7.5  梯度
    7.5.1  梯度的計算
    7.5.2  可視化梯度
  7.6  小結
第8章  矩陣微分
  8.1  一些公式
    8.1.1  關於標量的向量函數
    8.1.2  關於向量的標量函數
    8.1.3  關於向量的向量函數
    8.1.4  關於標量的矩陣函數
    8.1.5  關於矩陣的標量函數
  8.2  一些性質
    8.2.1  關於向量的標量函數
    8.2.2  關於標量的向量函數
    8.2.3  關於向量的向量函數
    8.2.4  關於矩陣的標量函數
  8.3  雅可比矩陣和黑塞矩陣
    8.3.1  雅可比矩陣
    8.3.2  黑塞矩陣
  8.4  矩陣微分的一些實例
    8.4.1  元素級運算求導
    8.4.2  激活函數的導數
  8.5  小結
第9章  神經網路中的數據流
  9.1  數據的表示
    9.1.1  在傳統神經網路中表示數據
    9.1.2  在深度卷積網路中表示數據
  9.2  傳統神經網路中的數據流
  9.3  卷積神經網路中的數據流
    9.3.1  卷積
    9.3.2  卷積層
    9.3.3  池化層
    9.3.4  全連接層
    9.3.5  綜合應用
  9.4  小結
第10章  反向傳播
  10.1  什麼是反向傳播
  10.2  手把手進行反向傳播
    10.2.1  計算偏導數
    10.2.2  用Python進行實現
    10.2.3  訓練和測試模型

  10.3  全連接網路的反向傳播
    10.3.1  誤差的反向傳播
    10.3.2  關於權重和偏置求偏導數
    10.3.3  Python實現代碼
    10.3.4  測試Python實現代碼
  10.4  計算圖
  10.5  小結
第11章  梯度下降
  11.1  基本原理
    11.1.1  一維函數的梯度下降
    11.1.2  二維函數的梯度下降
  11.2  隨機梯度下降
  11.3  動量機制
    11.3.1  什麼是動量
    11.3.2  一維情況下的動量機制
    11.3.3  二維情況下的動量機制
    11.3.4  在訓練模型時引入動量
    11.3.5  涅斯捷洛夫動量
  11.4  自適應梯度下降
    11.4.1  RMSprop
    11.4.2  Adagrad
    11.4.3  Adam
    11.4.4  關於優化器的一些思考
  11.5  小結
附錄  學無止境

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032