幫助中心 | 我的帳號 | 關於我們

深度學習從0到1

  • 作者:編者:覃秉豐|責編:張迪
  • 出版社:電子工業
  • ISBN:9787121411939
  • 出版日期:2021/06/01
  • 裝幀:平裝
  • 頁數:470
人民幣:RMB 138 元      售價:
放入購物車
加入收藏夾

內容大鋼
    深度學習是人工智慧研究領域中一個極其重要的方向。本書是一本介紹深度學習理論與實戰應用的教程。從深度學習的發展歷史、單層感知器、線性神經網路、BP神經網路一直介紹到深度學習演算法——卷積神經網路和長短時記憶網路,並從圖像、自然語言處理和音頻信號三方面分別介紹了深度學習演算法的實際應用。案例實戰部分使用的深度學習框架為Tensornow 2/Keras。
    本書內容全面,結構清晰,通俗易懂,既可作為深度學習/人工智慧技術愛好者或相關工作人員的基礎教材,也可以作為高校相關專業的教材。

作者介紹
編者:覃秉豐|責編:張迪

目錄
第1章  深度學習背景介紹
  1.1  人工智慧
  1.2  機器學習
    1.2.1  訓練數據、驗證數據和測試數據
    1.2.2  學習方式
    1.2.3  機器學習常用演算法
  1.3  人工智慧、機器學習、神經網路及深度學習之間的關係
  1.4  深度學習的應用
  1.5  神經網路和深度學習的發展史
    1.5.1  神經網路的誕生:20世紀40年代到20世紀60年代
    1.5.2  神經網路的復興:20世紀80年代到20世紀90年代
    1.5.3  深度學習:2006年至今
  1.6  深度學習領域中的重要人物
  1.7  新一輪人工智慧爆發的三要素
  1.8  參考文獻
第2章  搭建Python編程環境
  2.1  Python介紹
  2.2  Anaconda安裝
  2.3  Jupyter Notebook的簡單使用
    2.3.1  啟動Jupyter Notebook
    2.3.2  修改Jupyter Notebook默認啟動路徑
    2.3.3  Jupyter Notebook瀏覽器無法打開
    2.3.4  Jupyter Notebook基本操作
第3章  單層感知器與線性神經網路
  3.1  生物神經網路
  3.2  單層感知器
    3.2.1  單層感知器介紹
    3.2.2  單層感知器計算舉例
    3.2.3  單層感知器的另一種表達形式
  3.3  單層感知器的學習規則
    3.3.1  單層感知器的學習規則介紹
    3.3.2  單層感知器的學習規則計算舉例
  3.4  學習率
  3.5  模型的收斂條件
  3.6  模型的超參數和參數的區別
  3.7  單層感知器分類案例
  3.8  線性神經網路
    3.8.1  線性神經網路介紹
    3.8.2  線性神經網路分類案例
  3.9  線性神經網路處理異或問題
第4章  BP神經網路
  4.1  BP神經網路介紹及發展背景
  4.2  代價函數
  4.3  梯度下降法
    4.3.1  梯度下降法介紹
    4.3.2  梯度下降法二維例子
    4.3.3  梯度下降法三維例子
  4.4  Delta學習規則
  4.5  常用激活函數講解
    4.5.1  sigmoid函數

    4.5.2  tanh函數
    4.5.3  softsign函數
    4.5.4  ReLU函數
  4.6  BP神經網路模型和公式推導
    4.6.1  BP網路模型
    4.6.2  BP演算法推導
    4.6.3  BP演算法推導的補充說明
  4.7  BP演算法推導結論總結
  4.8  梯度消失與梯度爆炸
    4.8.1  梯度消失
    4.8.2  梯度爆炸
    4.8.3  使用ReLU函數解決梯度消失和梯度爆炸的問題
  4.9  使用BP神經網路解決異或問題
  4.10  分類模型評估方法
    4.10.1  準確率/精確率/召回率/F1值
    4.10.2  混淆矩陣
  4.11  獨熱編碼
  4.12  BP神經網路完成手寫數字識別
  4.13  Sklearn手寫數字識別
  4.14  參考文獻
第5章  深度學習框架Tensorflow基礎使用
  5.1  Tensorflow介紹
    5.1.1  Tensorflow簡介
    5.1.2  靜態圖和動態圖機制Eager Execution
    5.1.3  tf.keras
  5.2  Tensorflow-cpu安裝
    5.2.1  Tensorflow-cpu在線安裝
    5.2.2  安裝過程中可能遇到的問題
    5.2.3  Tensorflow-cpu卸載
    5.2.4  Tensorflow-cpu更新
    5.2.5  Tensorflow-cpu指定版本的安裝
  5.3  Tensorflow-gpu安裝
    5.3.1  Tensorflow-gpu了解最新版本情況
    5.3.2  Tensorflow-gpu安裝CUDA
    5.3.3  Tensorflow-gpu安裝cuDNN庫
    5.3.4  Tensorflow-gpu在線安裝
    5.3.5  Tensorflow-gpu卸載
    5.3.6  Tensorflow-gpu更新
  5.4  Tensorflow基本概念
  5.5  Tensorflow基礎使用
  5.6  手寫數字圖片分類任務
    5.6.1  MNIST數據集介紹
    5.6.2  softmax函數介紹
    5.6.3  簡單MNIST數據集分類模型?沒有高級封裝
    5.6.4  簡單MNIST數據集分類模型?keras高級封裝
第6章  網路優化方法
  6.1  交叉熵代價函數
    6.1.1  均方差代價函數的缺點
    6.1.2  引入交叉熵代價函數
    6.1.3  交叉熵代價函數推導過程

    6.1.4  softmax與對數似然代價函數
    6.1.5  交叉熵程序
  6.2  過擬合
    6.2.1  什麼是過擬合
    6.2.2  抵抗過擬合的方法
  6.3  數據增強
  6.4  提前停止訓練
  6.5  Dropout
    6.5.1  Dropout介紹
    6.5.2  Dropout程序
  6.6  正則化
    6.6.1  正則化介紹
    6.6.2  正則化程序
  6.7  標籤平滑
    6.7.1  標籤平滑介紹
    6.7.2  標籤平滑程序
  6.8  優化器
    6.8.1  梯度下降法
    6.8.2  Momentum
    6.8.3  NAG
    6.8.4  Adagrad
    6.8.5  Adadelta
    6.8.6  RMRprop
    6.8.7  Adam
    6.8.8  優化器程序
  6.9  參考文獻
第7章  Tensorflow模型的保存和載入
  7.1  Keras模型保存和載入
    7.1.1  Keras模型保存
    7.1.2  Keras模型載入
  7.2  SavedModel模型保存和載入
    7.2.1  SavedModel模型保存
    7.2.2  SavedModel模型載入
  7.3  單獨保存模型的結構
    7.3.1  保存模型的結構
    7.3.2  載入模型結構
  7.4  單獨保存模型參數
    7.4.1  保存模型參數
    7.4.2  載入模型參數
  7.5  ModelCheckpoint自動保存模型
  7.6  Checkpoint模型保存和載入
    7.6.1  Checkpoint模型保存
    7.6.2  Checkpoint模型載入
第8章  卷積神經網路(CNN)
  8.1  電腦視覺介紹
    8.1.1  電腦視覺應用介紹
    8.1.2  電腦視覺技術介紹
  8.2  卷積神經網簡介
    8.2.1  BP神經網路存在的問題
    8.2.2  局部感受野和權值共享

  8.3  卷積的具體計算
  8.4  卷積的步長
  8.5  不同的卷積核
  8.6  池化
  8.7  Padding
  8.8  常見的卷積計算總結
    8.8.1  對1張圖像進行卷積生成1張特徵圖
    8.8.2  對1張圖像進行卷積生成多張特徵圖
    8.8.3  對多張圖像進行卷積生成1張特徵圖
    8.8.4  對多張圖像進行卷積生成多張特徵圖
  8.9  經典的卷積神經網路
  8.10  卷積神經網路應用於MNIST數據集分類
  8.11  識別自己寫的數字圖片
  8.12  CIFAR-10數據集分類
  8.13  參考文獻
第9章  序列模型
  9.1  序列模型應用
  9.2  循環神經網路(RNN)
    9.2.1  RNN介紹
    9.2.2  Elman network和Jordan network
  9.3  RNN的不同架構
    9.3.1  一對一架構
    9.3.2  多對一架構
    9.3.3  多對多架構
    9.3.4  一對多架構
    9.3.5  Seq2Seq架構
  9.4  傳統RNN的缺點
  9.5  長短時記憶網路(LSTM)
  9.6  Peephole LSTM和FC-LSTM
    9.6.1  Peephole LSTM介紹
    9.6.2  FC-LSTM介紹
  9.7  其他RNN模型
    9.7.1  門控循環單元(GRU)
    9.7.2  雙向RNN
    9.7.3  堆疊的雙向RNN
  9.8  LSTM網路應用於MNIST數據集分類
  9.9  參考文獻
第10章  經典圖像識別模型介紹(上)
  10.1  圖像數據集
    10.1.1  圖像數據集介紹
    10.1.2  ImageNet的深遠影響
    10.1.3  ImageNet Challenge歷年優秀作品
  10.2  AlexNet
  10.3  VGGNet
  10.4  GoogleNet
    10.4.1  1×1卷積介紹
    10.4.2  Inception結構
    10.4.3  GoogleNet網路結構
  10.5  Batch Normalization
    10.5.1  Batch Normalization提出背景

    10.5.2  數據標準化(Normalization)
    10.5.3  Batch Normalization模型訓練階段
    10.5.4  Batch Normalization模型預測階段
    10.5.5  Batch Normalization作用分析
  10.6  ResNet
    10.6.1  ResNet背景介紹
    10.6.2  殘差塊介紹
    10.6.3  ResNet網路結構
    10.6.4  ResNet-V
  10.7  參考文獻
第11章  經典圖像識別模型介紹(下)
  11.1  Inception模型系列
    11.1.1  Inception-v2/v3優化策略
    11.1.2  Inception-v2/v3模型結構
    11.1.3  Inception-v4和Inception-ResNet介紹
  11.2  ResNeXt
    11.2.1  分組卷積介紹
    11.2.2  ResNeXt中的分組卷積
    11.2.3  ResNeXt的網路結構
  11.3  SENet
    11.3.1  SENet介紹
    11.3.2  SENet結果分析
  11.4  參考文獻
第12章  圖像識別項目實戰
  12.1  圖像數據準備
    12.1.1  數據集介紹
    12.1.2  數據集準備
    12.1.3  切分數據集程序
  12.2  AlexNet圖像識別
  12.3  VGGNet圖像識別
  12.4  函數式模型
    12.4.1  函數式模型介紹
    12.4.2  使用函數式模型進行MNIST圖像識別
  12.5  模型可視化
    12.5.1  使用plot_model進行模型可視化
    12.5.2  plot_model升級版
  12.6  GoogleNet圖像識別
  12.7  Batch Normalization使用
  12.8  ResNet圖像識別
  12.9  ResNeXt圖像識別
  12.10  SENet圖像識別
  12.11  使用預訓練模型進行遷移學習
    12.11.1  使用訓練好的模型進行圖像識別
    12.11.2  使用訓練好的模型進行遷移學習
    12.11.3  載入訓練好的模型進行預測
第13章  驗證碼識別項目實戰
  13.1  多任務學習介紹
  13.2  驗證碼數據集生成
  13.3  tf.data介紹
    13.3.1  tf.data概述

    13.3.2  使用tf.data完成多任務學習:驗證碼識別
  13.4  使用自定義數據生成器完成驗證碼識別
    13.4.1  使用自定義數據生成器完成模型訓練
    13.4.2  使用自定義數據生成器完成模型預測
  13.5  挑戰變長驗證碼識別
    13.5.1  挑戰變長驗證碼識別模型訓練
    13.5.2  挑戰變長驗證碼識別模型預測
  13.6  CTC演算法
    13.6.1  CTC演算法介紹
    13.6.2  貪心演算法(Greedy Search)和集束搜索演算法(Beam Search)
    13.6.3  CTC存在的問題
    13.6.4  CTC演算法:驗證碼識別
第14章  自然語言處理(NLP)發展歷程(上)
  14.1  NLP應用介紹
  14.2  從傳統語言模型到神經語言模型
    14.2.1  規則模型
    14.2.2  統計語言模型
    14.2.3  詞向量
    14.2.4  神經語言模型
  14.3  word2vec
    14.3.1  word2vec介紹
    14.3.2  word2vec模型訓練
    14.3.3  word2vec訓練技巧和可視化效果
  14.4  CNN在NLP領域中的應用
  14.5  RNN在NLP領域中的應用
  14.6  Seq2Seq模型在NLP領域中的應用
  14.7  Attention機制
    14.7.1  Attention介紹
    14.7.2  Bahdanau Attention介紹
    14.7.3  Luong Attention介紹
    14.7.4  谷歌機器翻譯系統介紹
    14.7.5  Attention機制在視覺和語音領域的應用
  14.8  參考文獻
第15章  自然語言處理(NLP)發展歷程(下)
  15.1  NLP新的開始:Transformer模型
    15.1.1  Transformer模型結構和輸入數據介紹
    15.1.2  Self-Attention介紹
    15.1.3  Multi-Head Attention介紹
    15.1.4  Layer Normalization介紹
    15.1.5  Decoder結構介紹
    15.1.6  Decoder中的Multi-Head Attention和模型訓練
  15.2  BERT模型
    15.2.1  BERT模型介紹
    15.2.2  BERT模型訓練
    15.2.3  BERT模型應用
  15.3  參考文獻
第16章  NLP任務項目實戰
  16.1  一維卷積英語電影評論情感分類項目
    16.1.1  項目數據和模型說明
    16.1.2  一維卷積英語電影評論情感分類程序

  16.2  二維卷積中文微博情感分類項目
  16.3  雙向LSTM中文微博情感分類項目
  16.4  堆疊雙向LSTM中文分詞標注項目
    16.4.1  中文分詞標注模型訓練
    16.4.2  維特比演算法
    16.4.3  中文分詞標注模型預測
  16.5  最新的一些激活函數介紹
    16.5.1  Leaky ReLU
    16.5.2  ELU
    16.5.3  SELU
    16.5.4  GELU
    16.5.5  Swish
  16.6  BERT模型的簡單使用
    16.6.1  安裝tf2-bert模塊並準備預訓練模型
    16.6.2  使用BERT模型進行文本特徵提取
    16.6.3  使用BERT模型進行完形填空
  16.7  BERT電商用戶多情緒判斷項目
    16.7.1  項目背景介紹
    16.7.2  模型訓練
    16.7.3  模型預測
  16.8  參考文獻
第17章  音頻信號處理
  17.1  深度學習在聲音領域的應用
  17.2  MFCC和Mel Filter Banks
    17.2.1  音頻數據採集
    17.2.2  分幀加窗
    17.2.3  傅里葉變換
    17.2.4  梅爾濾波器組
    17.2.5  梅爾頻率倒譜係數(MFCC)
  17.3  語音分類項目
    17.3.1  librosa介紹
    17.3.2  音頻分類項目?模型訓練
    17.3.3  音頻分類項目?模型預測
第18章  圖像風格轉換
  18.1  圖像風格轉換實現原理
    18.1.1  代價函數的定義
    18.1.2  格拉姆矩陣介紹
  18.2  圖像風格轉換項目實戰
  18.3  遮擋圖像風格轉換項目實戰
  18.4  參考文獻
第19章  生成對抗網路
  19.1  生成對抗網路的應用
  19.2  DCGAN介紹
  19.3  手寫數字圖像生成
  19.4  參考文獻
第20章  模型部署
  20.1  Tensorflow Serving環境部署
  20.2  運行客戶端和伺服器程序
    20.2.1  準備SavedModel模型
    20.2.2  啟動Tensorflow Serving伺服器程序

    20.2.3  Tensorflow Serving客戶端gRPC程序
    20.2.4  Tensorflow Serving客戶端REST API程序
專業術語彙總
結束語

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032