幫助中心 | 我的帳號 | 關於我們

Python深度學習(基於TensorFlow第2版)/智能系統與技術叢書

  • 作者:吳茂貴//王冬//李濤//楊本法//張利|責編:陳潔
  • 出版社:機械工業
  • ISBN:9787111712244
  • 出版日期:2022/10/01
  • 裝幀:平裝
  • 頁數:362
人民幣:RMB 99 元      售價:
放入購物車
加入收藏夾

內容大鋼
    這是一本能指導讀者快速掌握TensorFlow和深度學習的著作,從TensorFlow的原理到應用,從深度學習到強化學習,提供了全棧解決方案。
    第1版上市后銷量和口碑俱佳,是深度學習領域的暢銷書,被譽為TensorFlow領域的標準著作。第2版在第1版的基礎上,去蕪存菁,與時俱進,根據TensorFlow新版本全面升級,技術性、實戰性、針對性、易讀性均得到了進一步提升,必能幫助讀者更輕鬆、更高效地進入深度學習的世界。
    全書一共20章,在結構上分為三大部分:
    第一部分(第1?5章)TensorFlow基礎首先有針對性地講解了Python和TensorFlow的基石NumPy中的關鍵知識,然後詳細講解了TensorFlow的基礎知識、建模方法、數據處理、可視化等內容,幫助讀者快速了解和掌握TensorFlow。
    第二部分(第6?12章)深度學習基礎依次講解了機器學習、神經網路、視覺處理、自然語言處理、注意力機制、目標檢測、生成式深度學習等深度學習核心技術的原理和使用。
    第三部分(第13?18章)深度學習實踐通過6個綜合實例,詳細講解了TensorFlow在生成模型、目標檢測、人臉識別、文本檢測與識別以及Transformer架構在圖像處理和自然語言處理等方面的應用。
    第四部分(第19?20章)強化學習重點介紹了強化學習基礎理論、常用演算法及相關實例。
    更為重要的是,為了更通俗易懂,本書在內容安排和寫作方式上也頗花了一番心思。內容安排上,由點到面、由易到難,找准突破口;寫作方式上,採用了圖形化的表達,一圖勝干言。

作者介紹
吳茂貴//王冬//李濤//楊本法//張利|責編:陳潔

目錄
第2版前言
第1版前言
第一部分 TensorFlow基礎
第1章  NumPy基礎
  1.1  把圖像數字化
    1.1.1  數組屬性
    1.1.2  從已有數據中生成數組
    1.1.3  利用 random 模塊生成數組
    1.1.4  利用 arange、linspace函數生成數組
  1.2  存取元素
  1.3  NumPy的算術運算
    1.3.1  對應元素相乘
    1.3.2  點積運算
  1.4  數據變形
    1.4.1  更改數組的形狀
    1.4.2  合併數組
  1.5  通用函數
  1.6  廣播機制
  1.7  用NumPy實現回歸實例
  1.8  小結
第2章  TensorFlow基礎知識
  2.1  安裝配置
    2.1.1  安裝Anaconda
    2.1.2  安裝TensorFlow CPU版
    2.1.3  安裝TensorFlow GPU版
  2.2  層次架構
  2.3  張量
    2.3.1  張量的基本屬性
    2.3.2  張量切片
    2.3.3  操作形狀
  2.4  變數
  2.5  NumPy與tf.Tensor比較
  2.6  計算圖
    2.6.1  靜態計算圖
    2.6.2  動態計算圖
  2.7  自動圖
  2.8  自動微分
  2.9  損失函數
  2.10  優化器
    2.11 使用TensorFlow 2.0  實現回歸實例
  2.12  GPU加速
  2.13  小結
第3章  TensorFlow構建模型的方法
  3.1  利用低階API構建模型
    3.1.1  項目背景
    3.1.2  導入數據
    3.1.3  預處理數據
    3.1.4  構建模型
    3.1.5  訓練模型
    3.1.6  測試模型

    3.1.7  保存恢復模型
  3.2  利用中階API構建模型
    3.2.1  構建模型
    3.2.2  創建損失評估函數
    3.2.3  訓練模型
  3.3  利用高階API構建模型
    3.3.1  構建模型
    3.3.2  編譯及訓練模型
    3.3.3  測試模型
    3.3.4  保存恢復模型
  3.4  小結
第4章  TensorFlow數據處理
  4.1  tf.data簡介
  4.2  構建數據集的常用方法
    4.2.1  從內存中讀取數據
    4.2.2  從文本中讀取數據
    4.2.3  讀取TFRecord格式文件
  4.3  如何生成自己的TFRecord格式數據
    4.3.1  把數據轉換為TFRecord格式的一般步驟
    4.3.2  載入TFRecord文件流程
    4.3.3  代碼實現
  4.4  數據增強方法
    4.4.1  常用的數據增強方法
    4.4.2  創建數據處理流水線
  4.5  小結
第5章  可視化
  5.1  matplotlib
    5.1.1  matplotlib的基本概念
    5.1.2  使用matplotlib繪製圖表
    5.1.3  使用rcParams
  5.2  pyecharts
    5.2.1  pyecharts的安裝
    5.2.2  使用pyecharts繪製圖表
  5.3  TensorBoard
  5.4  小結
第二部分  深度學習基礎
第6章  機器學習基礎
  6.1  機器學習的一般流程
    6.1.1  明確目標
    6.1.2  收集數據
    6.1.3  數據探索與預處理
    6.1.4  模型選擇
    6.1.5  模型評估
  6.2  監督學習
    6.2.1  線性回歸
    6.2.2  邏輯回歸
    6.2.3  樹回歸
    6.2.4  支持向量機
    6.2.5  樸素貝葉斯分類器
    6.2.6  集成學習

  6.3  無監督學習
    6.3.1  主成分分析
    6.3.2  k均值演算法
  6.4  數據預處理
    6.4.1  處理缺失值
    6.4.2  處理分類數據
  6.5  機器學習實例
  6.6  小結
第7章  神經網路基礎
  7.1  單層神經網路
  7.2  多層神經網路
    7.2.1  多層神經網路的結構
    7.2.2  各層之間的信息傳輸
    7.2.3  使用多層神經網路解決XOR問題
    7.2.4  使用TensorFlow解決XOR問題
  7.3  激活函數
    7.3.1  sigmoid函數
    7.3.2  softmax函數
    7.3.3  tanh函數
    7.3.4  ReLU函數
    7.3.5  Leaky-ReLU函數
    7.3.6  softplus函數
    7.3.7  Dropout函數
  7.4  正向和反向傳播演算法
    7.4.1  單個神經元的BP演算法
    7.4.2  多層神經網路的BP演算法
  7.5  解決過擬合問題
    7.5.1  權重正則化
    7.5.2  Dropout正則化
    7.5.3  批量正則化
    7.5.4  權重初始化
    7.5.5  殘差網路
  7.6  選擇優化演算法
    7.6.1  傳統梯度更新演算法
    7.6.2  動量演算法
    7.6.3  NAG演算法
    7.6.4  AdaGrad演算法
    7.6.5  RMSProp演算法
    7.6.6  Adam演算法
    7.6.7  如何選擇優化演算法
  7.7  使用tf.keras構建神經網路
    7.7.1  tf.keras概述
    7.7.2  tf.keras的常用模塊
    7.7.3  構建模型的幾種方法
    7.7.4  使用Sequential API構建神經網路實例
    7.7.5  使用Functional API構建神經網路實例
    7.7.6  使用Subclassing API構建神經網路實例
  7.8  小結
第8章  視覺處理基礎
  8.1  從全連接層到卷積層

    8.1.1  圖像的兩個特性
    8.1.2  卷積神經網路概述
  8.2  卷積層
    8.2.1  卷積核
    8.2.2  步幅
    8.2.3  填充
    8.2.4  多通道上的卷積
    8.2.5  激活函數
    8.2.6  卷積函數
    8.2.7  轉置卷積
    8.2.8  特徵圖與感受野
    8.2.9  全卷積網路
  8.3  池化層
    8.3.1  局部池化
    8.3.2  全局池化
  8.4  現代經典網路
    8.4.1  LeNet-5模型
    8.4.2  AlexNet模型
    8.4.3  VGG模型
    8.4.4  GoogLeNet模型
    8.4.5  ResNet模型
    8.4.6  DenseNet模型
  8.5  卷積神經網路分類實例
    8.5.1  使用Subclassing API構建網路
    8.5.2  卷積神經網路分類實例的主要步驟
    8.5.3  通過數據增強提升性能
    8.5.4  通過現代網路架構提升網路性能
  8.6  小結
第9章  自然語言處理基礎
  9.1  從語言模型到循環神經網路
    9.1.1  鏈式法則
    9.1.2  馬爾可夫假設與N元語法模型
    9.1.3  從N元語法模型到隱含狀態表示
    9.1.4  從神經網路到有隱含狀態的循環神經網路
    9.1.5  使用循環神經網路構建語言模型
    9.1.6  多層循環神經網路
  9.2  正向傳播與隨時間反向傳播
  9.3  現代循環神經網路
    9.3.1  LSTM
    9.3.2  GRU
    9.3.3  Bi-RNN
  9.4  幾種特殊架構
    9.4.1  編碼器?-?解碼器架構
    9.4.2  Seq2Seq架構
  9.5  循環神經網路的應用場景
  9.6  循環神經網路實踐
    9.6.1  使用LSTM實現文本分類
    9.6.2  把CNN和RNN組合在一起
  9.7  小結
第10章  注意力機制

  10.1  注意力機制概述
    10.1.1  兩種常見注意力機制
    10.1.2  來自生活的注意力
    10.1.3  注意力機制的本質
  10.2  帶注意力機制的編碼器?-?解碼器架構
    10.2.1  引入注意力機制
    10.2.2  計算注意力分配值
  10.3  可視化Transformer架構
    10.3.1  Transformer的頂層設計
    10.3.2  編碼器與解碼器的輸入
    10.3.3  自注意力
    10.3.4  多頭注意力
    10.3.5  自注意力與卷積神經網路、循環神經網路的異同
    10.3.6  為加深Transformer網路層保駕護航的幾種方法
    10.3.7  如何進行自監督學習
    10.3.8  Transformer在視覺領域的應用
  10.4  使用TensorFlow實現Transformer
    10.4.1  Transformer架構圖
    10.4.2  架構說明
    10.4.3  構建縮放的點積注意力模塊
    10.4.4  構建多頭注意力模塊
    10.4.5  構建前饋神經網路模塊
    10.4.6  構建EncoderLayer模塊
    10.4.7  構建Encoder模塊
    10.4.8  構建DecoderLayer模塊
    10.4.9  構建Decoder模塊
    10.4.10  構建Transformer模型
    10.4.11  定義掩碼函數
  10.5  小結
第11章  目標檢測
  11.1  目標檢測及主要挑戰
    11.1.1  邊界框的表示
    11.1.2  手工標注圖像的真實值
    11.1.3  主要挑戰
    11.1.4  選擇性搜索
    11.1.5  錨框
    11.1.6  RPN演算法
  11.2  優化候選框的演算法
    11.2.1  交並比
    11.2.2  非極大值抑制
    11.2.3  邊框回歸
    11.2.4  使候選框輸出為固定大小
  11.3  典型的目標檢測演算法
    11.3.1  R-CNN
    11.3.2  Fast R-CNN
    11.3.3  Faster R-CNN
    11.3.4  Mask R-CNN
    11.3.5  YOLO
    11.3.6  Swin Transformer
    11.3.7  各種演算法的性能比較

  11.4  小結
第12章  生成式深度學習
  12.1  用變分自編碼器生成圖像
    12.1.1  自編碼器
    12.1.2  變分自編碼器
    12.1.3  用變分自編碼器生成圖像實例
  12.2  GAN簡介
    12.2.1  GAN的架構
    12.2.2  GAN的損失函數
  12.3  用GAN生成圖像
    12.3.1  判別器
    12.3.2  生成器
    12.3.3  訓練模型
    12.3.4  可視化結果
  12.4  VAE與GAN的異同
  12.5  CGAN
    12.5.1  CGAN的架構
    12.5.2  CGAN 判別器
    12.5.3  CGAN生成器
    12.5.4  訓練模型
    12.5.5  動態查看指定標籤的圖像
  12.6  提升GAN訓練效果的一些技巧
  12.7  小結
第三部分 深度學習實踐
第13章  實戰生成式模型
  13.1  Deep Dream模型
    13.1.1  Deep Dream的原理
    13.1.2  Deep Dream演算法的流程
    13.1.3  使用TensorFlow實現Deep Dream
  13.2  風格遷移
    13.2.1  內容損失
    13.2.2  風格損失
    13.2.3  訓練模型
  13.3  小結
第14章  目標檢測實例
  14.1  數據集簡介
  14.2  準備數據
  14.3  訓練模型
  14.4  測試模型
  14.5  小結
第15章  人臉檢測與識別實例
  15.1  人臉識別簡介
  15.2  項目概況
  15.3  項目詳細實施步驟
    15.3.1  圖像預處理
    15.3.2  構建模型
    15.3.3  測試模型
  15.4  小結
第16章  文本檢測與識別實例
  16.1  項目架構說明

  16.2  項目實施步驟
    16.2.1  手工生成訓練數據
    16.2.2  數據預處理
    16.2.3  構建模型
    16.2.4  訓練模型
  16.3  小結
第17章  基於Transformer的對話實例
  17.1  數據預處理
  17.2  構建注意力模塊
  17.3  構建Transformer架構
  17.4  定義損失函數
  17.5  初始化並編譯模型
  17.6  測試評估模型
  17.7  小結
第18章  基於Transformer的圖像處理實例
  18.1  導入數據
  18.2  預處理數據
  18.3  構建模型
  18.4  編譯、訓練模型
  18.5  可視化運行結果
  18.6  小結
第四部分 強化學習
第19章  強化學習基礎
  19.1  強化學習基礎概述
    19.1.1  智能體與環境的交互
    19.1.2  回報
    19.1.3  馬爾可夫決策過程
    19.1.4  貝爾曼方程
    19.1.5  貝爾曼優方程
    19.1.6  同步策略與非同步策略
    19.1.7  有模型訓練與無模型訓練
  19.2  時序差分演算法
  19.3  Q-Learning演算法
    19.3.1  Q-Learning演算法的主要流程
    19.3.2  Q函數
    19.3.3  貪婪策略
  19.4  SARSA 演算法
  19.5  DQN演算法
    19.5.1  Q-Learning演算法的局限性
    19.5.2  用深度學習處理強化學習時需要解決的問題
    19.5.3  用DQN解決問題的方法
    19.5.4  定義損失函數
    19.5.5  DQN的經驗回放機制
    19.5.6  目標網路
    19.5.7  網路模型
    19.5.8  DQN演算法的實現
  19.6  小結
第20章  強化學習實踐
  20.1  Q-Learning演算法實例
  20.2  SARSA演算法實例

    20.2.1  遊戲場景
    20.2.2  核心代碼說明
  20.3  用TensorFlow實現DQN演算法
  20.4  小結
附錄A TensorFlow-GPU 2升級安裝配置
附錄B 從TensorFlow1.x升級到TensorFlow 2.x

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032