幫助中心 | 我的帳號 | 關於我們

速通(深度學習的數學基礎)

  • 作者:(日)赤石雅典|責編:韓松|譯者:張誠
  • 出版社:人民郵電
  • ISBN:9787115650023
  • 出版日期:2025/08/01
  • 裝幀:平裝
  • 頁數:240
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書將深度學習涉及的數學領域縮小到最小範圍,以幫助讀者在最短的時間內理解與深度學習有關的數學知識。全書分為導入篇、理論篇、實踐篇和發展篇4篇。導入篇系統介紹一些機器學習的入門知識;理論篇包括微積分、向量和矩陣、多元函數、指數函數、概率論等知識;實踐篇介紹線性回歸模型、邏輯回歸模型、深度學習模型;發展篇介紹面向實踐的深度學習。本書編程實踐中的代碼使用Python及Jupyter Notebook編寫,簡明易懂,便於讀者上手實踐。
    本書適合對深度學習感興趣的讀者、希望通過了解數學基礎來學習深度學習的讀者閱讀。

作者介紹
(日)赤石雅典|責編:韓松|譯者:張誠
    赤石雅典(MasanoriAkaishi)     1987年入職IBM日本公司。在東京基礎研究所從事數學處理系統方面的研究和開發工作。1993年調到軟體工程部,主要負責開源系統的基礎設施設計和構建工作。2013年調到智慧城市事業部,2016年8月調到Watson事業部至今。目前,主要負責WatsonStudio/WatsonOpenScale等數據科學系列產品的提案及開發工作。因為廣泛涉獵各種領域,從IT基礎設施、軟體開發、編程語言、SQL調試到Watson、機器學習、深度學習等,都積累了不少經驗。     金澤工業大學研究生院虎之門校區客座教授和「人工智慧技術特別講座」講師,出版有多本機器學習和深度學習相關著作,並在雜誌上發表了大量文章。     在本書中,負責第1章?第3章、第4章的一部分、第5章、附錄A?附錄C(電子版)的撰寫。

目錄
導入篇
  第1章  機器學習入門
    1.1  人工智慧AI與機器學習
    1.2  機器學習
      1.2.1  機器學習模型
      1.2.2  學習的方法
      1.2.3  監督學習與回歸和分類
      1.2.4  訓練步與預測步
      1.2.5  損失函數與梯度下降法
    1.3  機器學習模型初步
    1.4  本書中採用的機器學習模型
    1.5  機器學習與深度學習中數學的必要性
    1.6  本書的結構
理論篇
  第2章  微分與積分
    2.1  函數
      2.1.1  什麼是函數
      2.1.2  函數圖像
    2.2  複合函數與反函數
      2.2.1  複合函數
      2.2.2  反函數
    2.3  微分與極限
      2.3.1  微分的定義
      2.3.2  微分與函數值的近似
      2.3.3  切線方程
      專欄  切線方程與訓練步和預測步
    2.4  極大值與極小值
    2.5  多項式的微分
      2.5.1  xn的微分
      2.5.2  微分的線性屬性以及多項式的微分
      2.5.3  xr的微分
      專欄  組合與二項式定理
    2.6  乘積的微分
    2.7  複合函數的微分
      2.7.1  複合函數的微分
      2.7.2  反函數的微分
    2.8  商的微分
    2.9  積分
      專欄  積分符號的含義
  第3章  向量與矩陣
    3.1  向量入門
      3.1.1  向量
      3.1.2  向量的表示方法
      3.1.3  向量的分量
      3.1.4  向高維拓展
      3.1.5  向量的分量表示法
    3.2  向量的和、差與數乘
      3.2.1  向量的和
      3.2.2  向量的差
      3.2.3  向量的數乘

    3.3  長度模與距離
      3.3.1  向量的長度模
      3.3.2  Σ符號的意義
      3.3.3  向量間的距離
    3.4  三角函數
      3.4.1  三角比
      3.4.2  三角函數
      3.4.3  三角函數的圖像
      3.4.4  用三角函數表示直角三角形的邊
    3.5  內積
      3.5.1  基於數值定義內積
      3.5.2  分量形式的內積公式
    3.6  餘弦相似度
      3.6.1  二維向量之間的角度
      3.6.2  餘弦相似度
      專欄  餘弦相似度的應用舉例
    3.7  矩陣與矩陣運算
      3.7.1  輸出節點的內積形式
      3.7.2  輸出節點的矩陣積形式
  第4章  多元函數的微分
    4.1  多元函數
    4.2  偏微分
    4.3  全微分
    4.4  全微分與複合函數
    4.5  梯度下降法
      專欄  梯度下降法與局部最優解
  第5章  指數函數與對數函數
    5.1  指數函數
      5.1.1  連乘的定義與法則
      5.1.2  連乘的拓展
      5.1.3  向函數拓展
    5.2  對數函數
      專欄  對數函數包含的意義
    5.3  對數函數的微分
      專欄  用Python計算自然常數
    5.4  指數函數的微分
      專欄  以自然常數e為底的指數函數的寫法
    5.5  Sigmoid函數
    5.6  Softmax函數
      專欄  Sigmoid函數與Softmax函數的關係
  第6章  概率與統計
    6.1  概率函數與概率分佈
    6.2  概率密度函數與概率分佈函數
      專欄  正態分佈函數與Sigmoid函數
    6.3  似然函數與最大似然估計
      專欄  為何似然函數的極值不是極小而是極大
實踐篇
  第7章  線性回歸模型
    7.1  損失函數的偏微分與梯度下降法
    7.2  例題的問題設定

    7.3  訓練數據的記法
    7.4  梯度下降法的思路
    7.5  預測模型的構造
    7.6  損失函數的構造
    7.7  計算損失函數的微分
    7.8  梯度下降法的應用
    7.9  編程實踐
      專欄  使用NumPy編程的技術
    7.10  多元回歸模型的擴展
      專欄  學習率·循環迭代次數的調整方法
  第8章  邏輯回歸模型二分類
    8.1  例題的問題設定
    8.2  回歸模型與分類模型的區別
    8.3  預測模型的分析
      專欄  用概率表達預測值大有深意
    8.4  損失函數交叉熵函數
    8.5  計算損失函數的微分
    8.6  梯度下降法的應用
    8.7  編程實踐
      專欄  scikit-learn與模塊的比較
      專欄  球迷國王的煩惱與交叉熵
  第9章  邏輯回歸模型多分類
    9.1  例題的問題設定
    9.2  模型的基礎概念
    9.3  權重矩陣
    9.4  Softmax函數
    9.5  損失函數
    9.6  計算損失函數的微分
    9.7  梯度下降法的應用
    9.8  編程實踐
      專欄  NumPy中的矩陣計算
  第10章  深度學習模型
    10.1  例題的問題設定
    10.2  模型結構與預測函數
    10.3  損失函數
    10.4  計算損失函數的微分
    10.5  誤差逆傳播
    10.6  梯度下降法的應用
    10.7  編程實踐
    10.8  編程實踐
    10.9  編程實踐
    10.10  編程實踐
發展篇
  第11章  面向實踐的深度學習
    11.1  使用框架
    11.2  CNN
    11.3  RNN與LSTM
    11.4  數值微分
    11.5  高級訓練法
    11.6  避免過擬合

    11.7  學習的單位
    11.8  矩陣的初始化
    11.9  更上一層樓
附錄  Jupyter Notebook的安裝方法
  A.1  在Windows環境中安裝Jupyter Notebook
  A.2  在macOS環境中安裝Jupyter Notebook

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032