幫助中心 | 我的帳號 | 關於我們

深度學習(基於PyTorch的實現)/數據科學與大數據技術叢書

  • 作者:編者:周靜//魯偉|責編:徐凌
  • 出版社:中國人民大學
  • ISBN:9787300312378
  • 出版日期:2023/05/01
  • 裝幀:平裝
  • 頁數:221
人民幣:RMB 56 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書是一本由淺入深地介紹深度學習的理論原理及PyTorch深度學習框架的入門書籍,全書通過圖文並茂的方式對重點知識進行講解,注重實踐,詳細地介紹了PyTorch的基本使用、神經網路的構建和訓練技巧、卷積神經網路和循環神經網路的實現,以及前沿的深度生成模型的應用。通過閱讀本書,讀者不僅可以了解深度學習,而且可以輕鬆實現機器作詩、自動樂曲生成、機器翻譯、圖像去噪等有趣的應用。全書配有註釋詳細的代碼,方便讀者學習與實踐。本書適用於對人工智慧感興趣的讀者,也適合作為深度學習領域的入門教材。

作者介紹
編者:周靜//魯偉|責編:徐凌

目錄
第1章  導論
  1.1  人工智慧
    1.1.1  人工智慧的發展歷史
    1.1.2  人工智慧的流派
  1.2  機器學習
  1.3  深度學習
    1.3.1  深度學習的概念
    1.3.2  深度學習與機器學習、人工智慧的關係
    1.3.3  深度學習的歷史溯源
    1.3.4  深度學習與回歸分析
  1.4  深度學習適用的領域
    1.4.1  圖像識別
    1.4.2  語音識別
    1.4.3  自然語言處理
    1.4.4  棋牌竟技
  1.5  常用的深度學習框架
    1.5.1  Caffe
    1.5.2  TensorFlow
    1.5.3  PyTorch
    1.5.4  MXNet
    1.5.5  Keras
  1.6  本書使用的數據和代碼說明
第2章  神經網路的張量與數學基礎
  2.1  張量
    2.1.1  張量的定義
    2.1.2  張量的數據類型
    2.1.3  張量的創建方式
    2.1.4  應用:圖像數據轉張量
  2.2  張量的操作
    2.2.1  獲取和改變張量形狀
    2.2.2  提取張量中的元素
    2.2.3  張量的拼接與拆分
  2.3  張量的運算
    2.3.1  基本運算
    2.3.2  統計相關運算
    2.3.3  矩陣運算
  2.4  深度學習的導數基礎
    2.4.1  單變數函數和導數
    2.4.2  多變數函數和偏導數
    2.4.3  複合函數和鏈式求導法則
  2.5  梯度下降演算法的含義與公式
  2.6  本章小結
第3章  前饋神經網路
  3.1  前饋神經網路的基本結構和常見激活函數
    3.1.1  神經元
    3.1.2  Sigmoid函數
    3.1.3  Tanh函數
    3.1.4  ReLU函數
    3.1.5  前饋神經網路的構成
  3.2  損失函數的設置

  3.3  梯度下降演算法
    3.3.1  梯度下降演算法的直觀理解與定義
    3.3.2  小批量梯度下降演算法
    3.3.3  動量梯度下降演算法
    3.3.4  Nesterov梯度加速演算法
    3.3.5  自適應梯度演算法
    3.3.6  AdaDelta演算法
    3.3.7  均方根加速演算法
    3.3.8  自適應矩估計演算法
  3.4  反向傳播演算法
    3.4.1  單個神經元的反向傳播演算法示例
    3.4.2  兩層神經網路的反向傳播演算法示例
  3.5  過擬合
    3.5.1  偏差-方差分解
    3.5.2  正則化
    3.5.3  權重衰減
    3.5.4  丟棄法
  3.6  本章小結
第4章  神經網路的PyTorch實現
  4.1  線性回歸案例:顏值打分
    4.1.1  線性回歸基礎
    4.1.2  案例:顏值打分
  4.2  邏輯回歸案例:性別識別
    4.2.1  邏輯回歸基礎
    4.2.2  案例:性別識別
  4.3  softmax回歸案例:Fashion-MNIST數據集分類
    4.3.1  softmax回歸基礎
    4.3.2  案例:Fashion-MNIST數據集分類
  4.4  本章小結
第5章  卷積神經網路基礎
  5.1  卷積神經網路的基本結構
  5.2  卷積與池化的通俗理解
    5.2.1  卷積的通俗理解
    5.2.2  池化的通俗理解
  5.3  卷積操作
    5.3.1  卷積的定義
    5.3.2  填充與步長
    5.3.3  多通道卷積
  5.4  池化操作
    5.4.1  單通道池化
    5.4.2  多通道池化
  5.5  CNN模型實戰:手寫數字識別
    5.5.1  數據準備
    5.5.2  構建數據讀取器
    5.5.3  LeNet-5網路構建及代碼實現
    5.5.4  模型訓練
    5.5.5  第一層卷積核與特徵圖的可視化
    5.5.6  第二層卷積核與特徵圖的可視化
  5.6  本章小結
第6章  經典CNN模型介紹

  6.1  AlexNet模型原理與實現
    6.1.1  AlexNet網路結構
    6.1.2  AlexNet創新點
    6.1.3  案例:AlexNet用於CIFAR10數據集的圖片分類
    6.1.4  AlexNet網路構建及代碼實現
    6.1.5  模型訓練
  6.2  VGG模型原理與實現
  6.2  .IVGG網路結構
    6.2.2  案例:VGG16用於CIFAR10數據集的圖片分類
    6.2.3  VGG網路構建及代碼實現
    6.2.4  模型訓練
  6.3  InceptionV1模型原理與實現
    6.3.1  InceptionV1網路結構
    6.3.2  InceptionV1創新點
    6.3.3  InceptionV1網路構建及代碼實現
    6.3.4  模型訓練
  6.4  ResNet模型原理與實現
    6.4.1  ResNet網路結構
    6.4.2  ResNet網路構建及代碼實現
    6.4.3  模型訓練
  6.5  批量歸一化
    6.5.1  批量歸一化的提出動機
    6.5.2  批量歸一化的主要思想
    6.5.3  案例:帶有批量歸一化的模型用於貓狗數據集圖片分類
  6.6  數據增強
    6.6.1  數據增強的核心思想
    6.6.2  案例:帶有數據增強的模型用於貓狗數據集圖片分類
  6.7  遷移學習
    6.7.1  遷移學習的由來
    6.7.2  遷移學習原理
    6.7.3  經典案例:遷移學習如何精準定位貧困地區
    6.7.4  PyTorch案例:遷移學慣用于貓狗數據集圖片分類
  6.8  本章小結
第7章  序列模型
  7.1  詞向量
    7.1.1  辭彙表徵與語義相關性
    7.1.2  Word2Vec原理概述
    7.1.3  Word2Vec代碼實現
  7.2  RNN模型
    7.2.1  RNN的源起:序列預測問題
    7.2.2  RNN模型原理
    7.2.3  RNN模型實例:機器作詩
  7.3  LSTM模型
    7.3.1  RNN模型的改進:增加長期狀態變數
    7.3.2  LSTM模型簡介
    7.3.3  LSTM模型實例:自動樂曲生成
  7.4  機器翻譯
    7.4.1  初級機器翻譯技術
    7.4.2  回歸分析視角
    7.4.3  encoder-decoder模型

    7.4.4  機器翻譯實例:中英文翻譯
  7.5  本章小結
第8章  深度生成模型
  8.1  自編碼器
    8.1.1  自編碼器簡介
    8.1.2  自編碼器的應用案例:圖像去噪
  8.2  變分自編碼器
    8.2.1  生成模型與分佈變換
    8.2.2  VAE的基本原理
    8.2.3  VAE圖像生成示例
  8.3  生成式對抗網路
    8.3.1  GAN原理簡介
    8.3.2  GAN示例:訓練DCGAN
  8.4  本章小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032