幫助中心 | 我的帳號 | 關於我們

圖解深度學習與神經網路(從張量到TensorFlow實現)

  • 作者:編者:張平
  • 出版社:電子工業
  • ISBN:9787121347450
  • 出版日期:2018/10/01
  • 裝幀:平裝
  • 頁數:326
人民幣:RMB 79 元      售價:
放入購物車
加入收藏夾

內容大鋼
    張平編著的《圖解深度學習與神經網路(從張量到TensorFlow實現)》是以TensorFlow為工具介紹神經網路和深度學習的入門書,內容循序漸進,以簡單示例和圖例的形式,展示神經網路和深度學習背後的數學基礎原理,幫助讀者更好地理解複雜抽象的公式。同時,採用手動計算和程序代碼這兩種方式講解示例,可以更好地幫助讀者理解TensorFlow的常用函數介面,為讀者掌握利用TensorFlow搭建人工智慧項目打下良好的基礎。
    本書適合神經網路、深度學習、TensorFlow的入門者閱讀。

作者介紹
編者:張平

目錄
1 深度學習及TensorFlow 簡介
  1.1  深度學習
  1.2  TensorFlow 簡介及安裝
2 基本的數據結構及運算
  2.1  張量
    2.1.1  張量的定義
    2.1.2  Tensor 與Numpy 的ndarray 轉換
    2.1.3  張量的尺寸
    2.1.4  圖像轉換為張量
  2.2  隨機數
    2.2.1  均勻(平均)分佈隨機數
    2.2.2  正態(高斯)分佈隨機數
  2.3  單個張量的運算
    2.3.1  改變張量的數據類型
    2.3.2  訪問張量中某一個區域的值
    2.3.3  轉置
    2.3.4  改變形狀
    2.3.5  歸約運算:求和、平均值、最大(???
    2.3.6  最大(??檔奈恢盟饕?
  2.4  多個張量之間的運算
    2.4.1  基本運算:加、減、乘、除
    2.4.2  乘法
    2.4.3  張量的連接
    2.4.4  張量的堆疊
    2.4.5  張量的對比
  2.5  佔位符
  2.6  Variable 對象
3 梯度及梯度下降法
  3.1  梯度
  3.2  導數計算的鏈式法則
    3.2.1  多個函數和的導數
    3.2.2  複合函數的導數
    3.2.3  單變數函數的駐點、極值點、鞍點
    3.2.4  多變數函數的駐點、極值點、鞍點
    3.2.5  函數的泰勒級數展開
    3.2.6  梯度下降法
  3.3  梯度下降法
    3.3.1  Adagrad 法
    3.3.2  Momentum 法
    3.3.3  NAG 法
    3.3.4  RMSprop 法
    3.3.5  具備動量的RMSprop 法
    3.3.6  Adadelta 法
    3.3.7  Adam 法
    3.3.8  Batch 梯度下降
    3.3.9  隨機梯度下降
    3.3.10  mini-Batch 梯度下降
  3.4  參考文獻
4 回歸分析
  4.1  線性回歸分析

    4.1.1  一元線性回歸
    4.1.2  保存和載入回歸模型
    4.1.3  多元線性回歸
  4.2  非線性回歸分析
5 全連接神經網路
  5.1  基本概念
  5.2  計算步驟
  5.3  神經網路的矩陣表達
  5.4  激活函數
    5.4.1  sigmoid 激活函數
    5.4.2  tanh 激活函數
    5.4.3  ReLU 激活函數
    5.4.4  leaky relu 激活函數
    5.4.5  elu 激活函數
    5.4.6  crelu 激活函數
    5.4.7  selu 激活函數
    5.4.8  relu6 激活函數
    5.4.9  softplus 激活函數
    5.4.10  softsign 激活函數
  5.5  參考文獻
6 神經網路處理分類問題
  6.1  TFRecord 文件
    6.1.1  將ndarray 寫入TFRecord 文件
    6.1.2  從TFRecord 解析數據
  6.2  建立分類問題的數學模型
    6.2.1  數據類別(標籤)
    6.2.2  圖像與TFRecrder
    6.2.3  建立模型
  6.3  損失函數與訓練模型
    6.3.1  sigmoid 損失函數
    6.3.2  softmax 損失函數
    6.3.3  訓練和評估模型
  6.4  全連接神經網路的梯度反向傳播
    6.4.1  數學原理及示例
    6.4.2  梯度消失
7 一維離散卷積
  7.1  一維離散卷積的計算原理
    7.1.1  full 卷積
    7.1.2  valid 卷積
    7.1.3  same 卷積
    7.1.4  full、same、valid 卷積的關係
  7.2  一維卷積定理
    7.2.1  一維離散傅里葉變換
    7.2.2  卷積定理
  7.3  具備深度的一維離散卷積
    7.3.1  具備深度的張量與卷積核的卷積
    7.3.2  具備深度的張量分別與多個卷積核的卷積
    7.3.3  多個具備深度的張量分別與多個卷積核的卷積
8 二維離散卷積
  8.1  二維離散卷積的計算原理

    8.1.1  full 卷積
    8.1.2  same 卷積
    8.1.3  valid 卷積
    8.1.4  full、same、valid 卷積的關係
    8.1.5  卷積結果的輸出尺寸
  8.2  離散卷積的性質
    8.2.1  可分離的卷積核
    8.2.2  full 和same 卷積的性質
    8.2.3  快速計算卷積
  8.3  二維卷積定理
    8.3.1  二維離散傅里葉變換
    8.3.2  二維與一維傅里葉變換的關係
    8.3.3  卷積定理
    8.3.4  利用卷積定理快速計算卷積
  8.4  多深度的離散卷積
    8.4.1  基本的多深度卷積
    8.4.2  一個張量與多個卷積核的卷積
    8.4.3  多個張量分別與多個卷積核的卷積
    8.4.4  在每一深度上分別卷積
    8.4.5  單個張量與多個卷積核在深度上分別卷積
    8.4.6  分離卷積
9 池化操作
  9.1  same 池化
    9.1.1  same 最大值池化
    9.1.2  多深度張量的same 池化
    9.1.3  多個三維張量的same 最大值池化
    9.1.4  same 平均值池化
  9.2  valid 池化
    9.2.1  多深度張量的vaild 池化
    9.2.2  多個三維張量的valid 池化
10 卷積神經網路
  10.1  淺層卷積神經網路
  10.2  LeNet
  10.3  AlexNet
    10.3.1  AlexNet 網路結構詳解
    10.3.2  dropout 及其梯度下降
  10.4  VGGNet
  10.5  GoogleNet
    10.5.1  網中網結構
    10.5.2  Batch Normalization
    10.5.3  BN 與卷積運算的關係
    10.5.4  指數移動平均
    10.5.5  帶有BN 操作的卷積神經網路
  10.6  ResNet
  10.7  參考文獻
11 卷積的梯度反向傳播
  11.1  valid 卷積的梯度
    11.1.1  已知卷積核,對未知張量求導
    11.1.2  已知輸入張量,對未知卷積核求導
  11.2  same 卷積的梯度

    11.2.1  已知卷積核,對輸入張量求導
    11.2.2  已知輸入張量,對未知卷積核求導
12 池化操作的梯度
  12.1  平均值池化的梯度
  12.2  最大值池化的梯度
13 BN 的梯度反向傳播
  13.1  BN 操作與卷積的關係
  13.2  示例詳解
14 TensorFlow 搭建神經網路的主要函數

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032