幫助中心 | 我的帳號 | 關於我們

深度學習(從入門到精通微課版數據科學與統計系列規劃教材)

  • 作者:編者:王漢生|責編:孫燕燕
  • 出版社:人民郵電
  • ISBN:9787115537027
  • 出版日期:2021/01/01
  • 裝幀:平裝
  • 頁數:232
人民幣:RMB 49.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書全面系統地講解了深度學習的相關知識。全書共8章,包括深度學習簡介及TensorFlow安裝、神經網路基礎、神經網路的TensorFlow實現、卷積神經網路基礎、經典卷積神經網路(上)、經典卷積神經網路(下)、深度學習在文本序列中的應用以及深度學習實驗項目等內容。
    本書以人工智慧知識體係為基礎,以課堂案例為載體,採取理論與實踐相結合的模式編寫而成。
    本書不僅可以作為統計、數據科學等相關專業本科生深度學習相關課程的教材,也可以作為人工智慧領域愛好者,以及數據分析、數據挖掘等人員的培訓或自學教材。

作者介紹
編者:王漢生|責編:孫燕燕
    王漢生,統計學在商業相關領域教學的傑出代表,北京大學光華管理學院商務統計與經濟計量系教授、博士生導師、系主任;1998年北京大學數學學院概率統計系本科畢業,2001年美國威斯康星大學麥迪遜分校統計系博士畢業,2003年加入光華至今;國家傑出青年基金獲得者,全國工業統計學教學研究會青年統計學家協會創始會長,美國統計學會會士,國際統計協會推薦會士。先後歷任8個國際學術期刊副主編。曾在國內外各種專業雜誌上發表文章100+篇,併合著英文專著1本、(合)著中文教材4本。愛思唯爾中國高被引學者(數學類,2014-2019)。

目錄
第1章  深度學習簡介及TensorFlow安裝
  【學習目標】
  【導言】
  1.1  機器學習、深度學習與人工智慧
    1.1.1  機器學習
    1.1.2  深度學習
    1.1.3  機器學習與深度學習同人工智慧的關係
  1.2  深度學習與回歸分析
    1.2.1  回歸分析理論框架
    1.2.2  深度學習與回歸分析的聯繫
  1.3  深度學習的發展歷程
  1.4  深度學習擅長的領域
    1.4.1  圖像處理
    1.4.2  語音識別
    1.4.3  自然語言處理
    1.4.4  棋牌競技
    1.4.5  視頻處理
  1.5  安裝TensorFlow
    1.5.1  TensorFlow和Keras介紹
    1.5.2  硬體環境準備
    1.5.3  軟體環境準備
    1.5.4  安裝Anaconda
    1.5.5  安裝TensorFlow及Keras軟體包
    1.5.6  Jupyter Notebook運行深度學習
  課後習題
第2章  神經網路基礎
  【學習目標】
  【導言】
  2.1  神經網路模型介紹
    2.1.1  M-P神經元模型
    2.1.2  感知機模型
    2.1.3  多層感知機模型
  2.2  激活函數
    2.2.1  Sigmoid激活函數
    2.2.2  Tanh激活函數
    2.2.3  ReLU激活函數
  2.3  神經網路的訓練
    2.3.1  神經網路的訓練流程
    2.3.2  前向傳播演算法
    2.3.3  損失函數
    2.3.4  基於梯度下降演算法的預備知識
    2.3.5  批量梯度下降演算法
    2.3.6  批量梯度下降演算法的改進
    2.3.7  反向傳播演算法
  2.4  神經網路的過擬合及處理方法
    2.4.1  過擬合
    2.4.2  正則化方法
    2.4.3  Dropout方法
  課後習題
第3章  神經網路的TensorFlow實現

  【學習目標】
  【導言】
  3.1  神經網路的數據結構
    3.1.1  張量及其分類
    3.1.2  張量數據示例
  3.2  圖像數據的存儲與運算
    3.2.1  圖像數據的讀入與展示
    3.2.2  圖像數據的代數運算
  3.3  線性回歸模型的TensorFlow實現
    3.3.1  線性回歸模型
    3.3.2  案例:美食評分
  3.4  邏輯回歸模型的TensorFlow實現
    3.4.1  邏輯回歸模型
    3.4.2  Softmax回歸模型
    3.4.3  案例:手寫數字識別
  課後習題
第4章  卷積神經網路基礎
  【學習目標】
  【導言】
  4.1  卷積神經網路的基本結構
  4.2  「卷積」與「池化」的通俗理解
    4.2.1  對卷積的理解
    4.2.2  對池化的理解
  4.3  卷積
    4.3.1  二維離散卷積
    4.3.2  卷積結果的輸出尺寸
    4.3.3  多深度的離散卷積
    4.3.4  卷積運算的三個特性
  4.4  池化操作
    4.4.1  same池化
    4.4.2  valid池化
  課後習題
第5章  經典卷積神經網路(上)
  【學習目標】
  【導言】
  5.1  LeNet-5
    5.1.1  LeNet-5網路結構
    5.1.2  案例:LeNet-5手寫數字識別
  5.2  AlexNet
    5.2.1  AlexNet網路結構
    5.2.2  AlexNet創新點
    5.2.3  案例:中文字體識別——隸書和行楷
  5.3  VGG
    5.3.1  VGG網路結構
    5.3.2  案例:加利福尼亞理工學院鳥類資料庫分類
  5.4  Batch Normalization技巧
    5.4.1  Batch Normalization核心思想
    5.4.2  帶有BN的邏輯回歸
    5.4.3  帶有BN的寬度模型
    5.4.4  帶有BN的深度模型

  5.5  Data Augmentation技巧
    5.5.1  Data Augmentation核心思想
    5.5.2  數據增強實例:貓狗分類
  課後習題
第6章  經典卷積神經網路(下)
【學習目標】
【導言】
  6.1  Inception
    6.1.1  Inception網路結構
    6.1.2  案例:花的分類
  6.2  ResNet
    6.2.1  ResNet網路結構
    6.2.2  案例:花的三分類問題
  6.3  DenseNet
    6.3.1  DenseNet網路結構
    6.3.2  案例:性別區分
  6.4  MobileNet
    6.4.1  MobileNet網路結構
    6.4.2  案例:狗的分類
  6.5  遷移學習
    6.5.1  深度學習的現實困難
    6.5.2  遷移學習原理
    6.5.3  Keras 中的遷移學習模型
    6.5.4  遷移學習實戰:Inception V3
  課後習題
第7章  深度學習在文本序列中的應用
  【學習目標】
  【導言】
  7.1  詞嵌入
    7.1.1  詞嵌入前期知識
    7.1.2  詞嵌入的理論原理
    7.1.3  詞嵌入的程序實現
  7.2  機器作詩初級:邏輯回歸
    7.2.1  機器作詩原理
    7.2.2  原理實現:數據處理
    7.2.3  原理實現:邏輯回歸
  7.3  機器作詩進階1:RNN
    7.3.1  RNN前期知識
    7.3.2  RNN模型
    7.3.3  原理實現:數據處理
    7.3.4  原理實現:RNN作詩
  7.4  機器作詩進階2:LSTM
    7.4.1  LSTM前期知識
    7.4.2  LSTM模型
    7.4.3  原理實現:數據準備
    7.4.4  原理實現:LSTM代碼實現
  7.5  文本序列應用實例:機器翻譯
    7.5.1  機器翻譯原理
    7.5.2  案例:中英文翻譯
  課後習題

第8章  深度學習實驗項目
  【學習目標】
  【導言】
  8.1  LeNet模型實驗
  8.2  AlexNet模型實驗
  8.3  VGG16模型實驗
  8.4  Inception V1模型實驗
  8.5  ResNet模型實驗
  8.6  DenseNet模型實驗
  8.7  MobileNet模型實驗
  8.8  邏輯回歸作詩實驗
  8.9  RNN模型作詩實驗
  8.10  LSTM模型作詩實驗
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032