幫助中心 | 我的帳號 | 關於我們

Python深度學習入門(從零構建CNN和RNN)/圖靈程序設計叢書

  • 作者:(美)塞思·韋德曼|責編:謝婷婷|譯者:鄭天民
  • 出版社:人民郵電
  • ISBN:9787115555649
  • 出版日期:2021/02/01
  • 裝幀:平裝
  • 頁數:192
人民幣:RMB 79 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書全面介紹了深度學習知識,借助數學公式、示意圖和代碼,旨在幫助讀者從數學層面、概念層面和應用層面理解神經網路。讀者可以跟隨本書構建和訓練神經網路模型,從而解決實際問題。另外,本書著重介紹卷積神經網路和循環神經網路,並提供PyTorch開源神經網路庫的使用方法,有助於學習構建更高級的神經網路架構。
    本書適合軟體工程師、數據分析師,以及其他對機器學習和數據科學感興趣的讀者閱讀。

作者介紹
(美)塞思·韋德曼|責編:謝婷婷|譯者:鄭天民

目錄
第1章  基本概念
  1.1  函數
  1.2  導數
  1.3  嵌套函數
  1.4  鏈式法則
  1.5  示例介紹
  1.6  多輸入函數
  1.7  多輸入函數的導數
  1.8  多向量輸入函數
  1.9  基於已有特徵創建新特徵
  1.10  多向量輸入函數的導數
  1.11  向量函數及其導數:再進一步
  1.12  包含兩個二維矩陣輸入的計算圖
  1.13  有趣的部分:後向傳遞
  1.14  小結
第2章  基本原理
  2.1  監督學習概述
  2.2  監督學習模型
  2.3  線性回歸
    2.3.1  線性回歸:示意圖
    2.3.2  線性回歸:更有用的示意圖和數學
    2.3.3  加入截距項
    2.3.4  線性回歸:代碼
  2.4  訓練模型
    2.4.1  計算梯度:示意圖
    2.4.2  計算梯度:數學和一些代碼
    2.4.3  計算梯度:完整的代碼
    2.4.4  使用梯度訓練模型
  2.5  評估模型:訓練集與測試集
  2.6  評估模型:代碼
  2.7  從零開始構建神經網路
    2.7.1  步驟1:一系列線性回歸
    2.7.2  步驟2:一個非線性函數
    2.7.3  步驟3:另一個線性回歸
    2.7.4  示意圖
    2.7.5  代碼
    2.7.6  神經網路:後向傳遞
  2.8  訓練和評估第一個神經網路
  2.9  小結
第3章  從零開始深度學習
  3.1  定義深度學習
  3.2  神經網路的構成要素:運算
    3.2.1  示意圖
    3.2.2  代碼
  3.3  神經網路的構成要素:層
  3.4  在構成要素之上構建新的要素
    3.4.1  層的藍圖
    3.4.2  稠密層
  3.5  NeuralNetwork類和其他類
    3.5.1  示意圖

    3.5.2  代碼
    3.5.3  Loss類
  3.6  從零開始構建深度學習模型
    3.6.1  實現批量訓練
    3.6.2  NeuralNetwork:代碼
  3.7  優化器和訓練器
    3.7.1  優化器
    3.7.2  訓練器
  3.8  整合
  3.9  小結與展望
第4章  擴展
  4.1  關於神經網路的一些直覺
  4.2  softmax交叉熵損失函數
    4.2.1  組件1:softmax函數
    4.2.2  組件2:交叉熵損失
    4.2.3  關於激活函數的注意事項
  4.3  實驗
    4.3.1  數據預處理
    4.3.2  模型
    4.3.3  實驗:softmax交叉熵損失函數
  4.4  動量
    4.4.1  理解動量
    4.4.2  在Optimizer類中實現動量
    4.4.3  實驗:帶有動量的隨機梯度下降
  4.5  學習率衰減
    4.5.1  學習率衰減的類型
    4.5.2  實驗:學習率衰減
  4.6  權重初始化
    4.6.1  數學和代碼
    4.6.2  實驗:權重初始化
  4.7  dropout
    4.7.1  定義
    4.7.2  實現
    4.7.3  實驗:dropout
  4.8  小結
第5章  CNN
  5.1  神經網路與表徵學習
    5.1.1  針對圖像數據的不同架構
    5.1.2  卷積運算
    5.1.3  多通道卷積運算
  5.2  卷積層
    5.2.1  實現意義
    5.2.2  卷積層與全連接層的區別
    5.2.3  利用卷積層進行預測:Flatten層
    5.2.4  池化層
  5.3  實現多通道卷積運算
    5.3.1  前向傳遞
    5.3.2  後向傳遞
    5.3.3  批處理
    5.3.4  二維卷積

    5.3.5  最後一個元素:通道
  5.4  使用多通道卷積運算訓練CNN
    5.4.1  Flatten運算
    5.4.2  完整的Conv2D層
    5.4.3  實驗
  5.5  小結
第6章  RNN
  6.1  關鍵限制:處理分支
  6.2  自動微分
  6.3  RNN的動機
  6.4  RNN簡介
    6.4.1  RNN的第一個類:RNNLayer
    6.4.2  RNN的第二個類:RNNNode
    6.4.3  整合RNNNode類和RNNLayer類
    6.4.4  後向傳遞
  6.5  RNN:代碼
    6.5.1  RNNLayer類
    6.5.2  RNNNode類的基本元素
    6.5.3  vanilla RNNNode類
    6.5.4  vanilla RNNNode類的局限性
    6.5.5  GRUNode類
    6.5.6  LSTMNode類
    6.5.7  基於字元級RNN語言模型的數據表示
    6.5.8  其他語言建模任務
    6.5.9  組合RNNLayer類的變體
    6.5.10  將全部內容整合在一起
  6.6  小結
第7章  PyTorch
  7.1  PyTorch Tensor
  7.2  使用PyTorch進行深度學習
    7.2.1  PyTorch元素:Model類及其Layer類
    7.2.2  使用PyTorch實現神經網路基本要素:DenseLayer類
    7.2.3  示例:基於PyTorch的波士頓房價模型
    7.2.4  PyTorch元素:Optimizer類和Loss類
    7.2.5  PyTorch元素:Trainer類
    7.2.6  PyTorch優化學習技術
  7.3  PyTorch中的CNN
  7.4  PyTorch中的LSTM
  7.5  後記:通過自編碼器進行無監督學習
    7.5.1  表徵學習
    7.5.2  應對無標籤場景的方法
    7.5.3  在PyTorch中實現自編碼器
    7.5.4  更強大的無監督學習測試及解決方案
  7.6  小結
附錄  深入探討
關於作者
關於封面

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032