幫助中心 | 我的帳號 | 關於我們

深度學習(基於案例理解深度神經網路)/智能系統與技術叢書

  • 作者:(瑞士)翁貝托·米凱盧奇|譯者:陶陽//鄧紅平
  • 出版社:機械工業
  • ISBN:9787111637103
  • 出版日期:2019/10/01
  • 裝幀:平裝
  • 頁數:268
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書探討深度學習中的高級主題,例如優化演算法、超參數調優、Dropout和誤差分析,並討論如何解決在訓練深度神經網路時遇到的典型問題。書中首先介紹單一神經元網路的激活函數(ReLu、sigmoid和Swish),然後介紹如何使用TensorFlow進行線性和邏輯回歸,以及如何選擇正確的代價函數,之後討論具有多個層和神經元的更複雜的神經網路結構,並探討權重的隨機初始化問題。本書用一整章對神經網路誤差分析進行全面概述,給出如何解決來自不同分佈的方差、偏差、過擬合和數據集問題的例子。
    本書還討論在不使用任何Python庫(NumPy除外)的情況下,如何從零開始完全實現邏輯回歸,以便用諸如TensorFlow這樣的庫進行快速和有效的實驗。本書包括每種方法的案例研究,以便將所有理論信息付諸實踐。你還將學到Python代碼的優化技巧(例如,使用NumPy對循環進行向量化)。
    通過閱讀本書,你將學習
    利用Python和TensorFlow以正確的方式實現高級技術。
    調試和優化高級方法(如Dropout和正則化)。
    如何進行誤差分析(以確定是否存在偏差問題、方差問題、數據偏移問題等)。
    創建專註于利用複雜數據集進行深度學習的機器學習項目。

作者介紹
(瑞士)翁貝托·米凱盧奇|譯者:陶陽//鄧紅平

目錄
譯者序
前言
審校者簡介
致謝
第1章  計算圖和TensorFlow
  1.1  如何構建Python環境
    1.1.1  創建環境
    1.1.2  安裝TensorFlow
    1.1.3  Jupyter記事本
  1.2  TensorFlow基本介紹
    1.2.1  計算圖
    1.2.2  張量
    1.2.3  創建和運行計算圖
    1.2.4  包含tf.constant的計算圖
    1.2.5  包含tf.Variable的計算圖
    1.2.6  包含tf.placeholder的計算圖
    1.2.7  運行和計算的區別
    1.2.8  節點之間的依賴關係
    1.2.9  創建和關閉會話的技巧
第2章  單一神經元
  2.1  神經元結構
    2.1.1  矩陣表示法
    2.1.2  Python實現技巧:循環和NumPy
    2.1.3  激活函數
    2.1.4  代價函數和梯度下降:學習率的特點
    2.1.5  學習率的應用示例
    2.1.6  TensorFlow中的線性回歸示例
  2.2  邏輯回歸示例
    2.2.1  代價函數
    2.2.2  激活函數
    2.2.3  數據集
    2.2.4  TensorFlow實現
  2.3  參考文獻
第3章  前饋神經網路
  3.1  網路架構
    3.1.1  神經元的輸出
    3.1.2  矩陣維度小結
    3.1.3  示例:三層網路的方程
    3.1.4  全連接網路中的超參數
  3.2  用於多元分類的softmax函數
  3.3  過擬合簡要介紹
    3.3.1  過擬合示例
    3.3.2  基本誤差分析
  3.4  Zalando數據集
  3.5  使用TensorFlow構建模型
    3.5.1  網路架構
    3.5.2  softmax函數的標籤轉換:獨熱編碼
    3.5.3  TensorFlow模型
  3.6  梯度下降變體
    3.6.1  批量梯度下降

    3.6.2  隨機梯度下降
    3.6.3  小批量梯度下降
    3.6.4  各種變體比較
  3.7  預測示例
  3.8  權重初始化
  3.9  有效添加多個層
  3.10  增加隱藏層的優點
  3.11  比較不同網路
  3.12  選擇正確網路的技巧
第4章  訓練神經網路
  4.1  動態學習率衰減
    4.1.1  迭代還是周期
    4.1.2  階梯式衰減
    4.1.3  步長衰減
    4.1.4  逆時衰減
    4.1.5  指數衰減
    4.1.6  自然指數衰減
    4.1.7  TensorFlow實現
    4.1.8  將方法應用於Zalando數據集
  4.2  常用優化器
    4.2.1  指數加權平均
    4.2.2  Momentum
    4.2.3  RMSProp
    4.2.4  Adam
    4.2.5  應該使用哪種優化器
  4.3  自己開發的優化器示例
第5章  正則化
  5.1  複雜網路和過擬合
  5.2  什麼是正則化
  5.3  tp范數
  5.4  t2正則化
    5.4.1  t2正則化原理
    5.4.2  TensorFlow實現
  5.5  t1正則化
    5.5.1  t1正則化原理與TensorFlow實現
    5.5.2  權重真的趨於零嗎
  5.6  Dropout
  5.7  Early Stopping
  5.8  其他方法
第6章  指標分析
  6.1  人工水平表現和貝葉斯誤差
  6.2  關於人工水平表現的故事
  6.3  MNIST中的人工水平表現
  6.4  偏差
  6.5  指標分析圖
  6.6  訓練集過擬合
  6.7  測試集
  6.8  如何拆分數據集
  6.9  不平衡類分佈:會發生什麼
  6.10  率、召回率和F1指標

  6.11  不同分佈的數據集
  6.12  k折交叉驗證
  6.13  手動指標分析示例
第7章  超參數調優
  7.1  黑盒優化
  7.2  黑盒函數注意事項
  7.3  超參數調優問題
  7.4  黑盒問題示例
  7.5  網格搜索
  7.6  隨機搜索
  7.7  粗到細優化
  7.8  貝葉斯優化
    7.8.1  Nadaraya-Watson回歸
    7.8.2  高斯過程
    7.8.3  平穩過程
    7.8.4  用高斯過程預測
    7.8.5  採集函數
    7.8.6  上置信界(UCB)
    7.8.7  示例
  7.9  對數尺度採樣
  7.10  使用Zalando數據集的超參數調優
  7.11  徑向基函數注意事項
第8章  卷積神經網路和循環神經網路
  8.1  卷積核和過濾器
  8.2  卷積
  8.3  卷積運算示例
  8.4  池化
  8.5  構建CNN塊
    8.5.1  卷積層
    8.5.2  池化層
    8.5.3  各層的疊加
    8.5.4  CNN示例
  8.6  RNN介紹
    8.6.1  符號
    8.6.2  RNN的基本原理
    8.6.3  循環神經網路名稱的由來
    8.6.4  學會統計
第9章  研究項目
  9.1  問題描述
  9.2  數學模型
  9.3  回歸問題
  9.4  數據準備
  9.5  模型訓練
第10章  從零開始進行邏輯回歸
  10.1  邏輯回歸的數學背景
  10.2  Python實現
  10.3  模型測試
    10.3.1  數據集準備
    10.3.2  運行測試
  10.4  結論

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032