幫助中心 | 我的帳號 | 關於我們

深度學習基礎與工程實踐

  • 作者:編者:郭澤文|責編:潘昕
  • 出版社:電子工業
  • ISBN:9787121419225
  • 出版日期:2021/09/01
  • 裝幀:平裝
  • 頁數:286
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書以工程實踐為主線,基於TensorFlow2。0軟體框架詳細介紹了深度學習的工作原理和方法,並以實際代碼為例,剖析了構建神經網路模型的流程、全連接網路的運行原理、卷積神經網路的結構與運行機制、循環神經網路的結構與運行機制,討論了使用Dense、Conv1D、Conv2D、SimpleRNN、LTSM、GRU、Bidirectional等深度學習模型解決電腦視覺、序列問題的方法,並在此基礎上基於具體示例介紹了深度學習的高階實踐。
    本書致力於為人工智慧演算法工程師及從事人工智慧引擎相關工作的人提供理論與實踐指導,適合對人工智慧及其應用感興趣的讀者閱讀。

作者介紹
編者:郭澤文|責編:潘昕
    郭澤文,香港理工大學軟體科技理學碩士,中國人工智慧學會會員,香港理工大學北京校友會理事。在電腦行業工作近30年,長期從事產品研發與項目管理工作,曾就職于北控、盛大等企業,目前是一家知名人工智慧企業的合夥人,負責創新性產品的規劃與研發,致力於深度學習領域的探索與產品化實踐。

目錄
第1章  搭建環境
  1.1  安裝Anaconda
  1.2  安裝CUDA及其加速器
  1.3  安裝TensorFlow 2
  1.4  開發環境——Spyder
  1.5  可視化分析工具——TensorBoard
第2章  機器學習與深度學習
  2.1  機器學習
  2.2  深度學習
第3章  構建神經網路模型
  3.1  搭建一個全連接網路
  3.2  確定要解決的問題
  3.3  準備數據與數據預處理
    3.3.1  數據集
    3.3.2  擬合問題初探
    3.3.3  數據集劃分與數據污染
    3.3.4  神經網路中的數據表示
    3.3.5  張量操作
    3.3.6  數據預處理
  3.4  構建神經網路
    3.4.1  構建神經網路的方法
    3.4.2  理解Sequential Model的構建方法
    3.4.3  理解layers與layer
    3.4.4  理解models與model
    3.4.5  理解Dense
    3.4.6  激活函數
  3.5  編譯模型
    3.5.1  優化器
    3.5.2  損失函數
    3.5.3  評價指標
  3.6  訓練模型
    3.6.1  使用fit方法訓練模型
    3.6.2  使用fit_generator方法訓練模型
    3.6.3  使用TensorBoard回調函數訓練模型
  3.7  測試模型
    3.7.1  性能評估
    3.7.2  模型預測
  3.8  保存模型
    3.8.1  save方式
    3.8.2  save_weights方式
    3.8.3  SavedModel方式
  3.9  使用模型
    3.9.1  以save weights方式保存的模型的載入方法
    3.9.2  以save方式保存的模型的載入方法
    3.9.3  以SavedModel方式保存的模型的載入方法
  3.10  模型的重新訓練與預測
  3.11  使用模型在新數據上進行推理
第4章  全連接網路
  4.1  全連接層
  4.2  使用全連接網路解決文本分類問題

    4.2.1  基於IMDB數據集的二分類任務
    4.2.2  基於Reuters數據集的多分類任務
  4.3  使用全連接網路解決標量回歸問題
    4.3.1  使用留出驗證集方式訓練模型
    4.3.2  使用K折交叉驗證方式訓練模型
  4.4  全連接網路圖片分類問題的優化
    4.4.1  降低模型容量:縮減模型的超參數
    4.4.2  奧卡姆剃刀原則:正則化模型參數
    4.4.3  初識隨機失活:Dropout基礎
第5章  卷積神經網路
  5.1  使用CNN解決MNIST數據集的分類問題
  5.2  全連接網路面臨的問題
  5.3  局部相關性與權值共享
  5.4  構建卷積神經網路
    5.4.1  CNN與Dense性能比較
    5.4.2  卷積層
    5.4.3  池化層
    5.4.4  打平層
    5.4.5  卷積神經網路基礎架構
  5.5  使用Conv1D解決二分類問題
    5.5.1  EarlyStopping函數:訓練終止
    5.5.2  ModelCheckpoint函數:動態保存模型
    5.5.3  再談隨機失活
第6章  循環神經網路
  6.1  循環神經網路基礎
    6.1.1  序列
    6.1.2  序列向量化
    6.1.3  權值共享
    6.1.4  全局語義
    6.1.5  循環神經網路概述
    6.1.6  循環層
  6.2  SimpleRNN
    6.2.1  序列數據的預處理
    6.2.2  理解SimpleRNN層
  6.3  LSTM網路
    6.3.1  短時記憶與遺忘曲線
    6.3.2  梯度問題
    6.3.3  門控機制
    6.3.4  理解LSTM層
  6.4  GRU
    6.4.1  LSTM網路面臨的問題
    6.4.2  門控機制的優化方法
    6.4.3  理解GRU層
  6.5  雙向循環神經網路
    6.5.1  雙向LSTM網路
    6.5.2  雙向GRU
  6.6  解決循環神經網路的擬合問題
    6.6.1  通過正則化模型參數解決擬合問題
    6.6.2  使用隨機失活解決擬合問題
第7章  深度學習高階實踐

  7.1  函數式API網路模型
    7.1.1  如何實現層圖共享
    7.1.2  如何實現模型共享
    7.1.3  如何實現模型組裝與嵌套
    7.1.4  如何實現多輸入多輸出模型
  7.2  混合網路模型
  7.3  基於Xception架構實現圖片分類任務
    7.3.1  Xception架構
    7.3.2  使用image_dataset_from_directory函數構建數據集
    7.3.3  數據增強技術
    7.3.4  數據增強器的使用
    7.3.5  二維深度分離卷積層:SeparableConv2D
    7.3.6  數據標準化前置與中置
    7.3.7  編譯與訓練模型
    7.3.8  在新數據上進行推理
  7.4  殘差網路在CIFAR10數據集上的實踐
    7.4.1  CIFAR10數據集
    7.4.2  深度殘差網路:ResNet
    7.4.3  基於ResNet構建多分類任務模型
  7.5  GloVe預訓練詞嵌入實踐
    7.5.1  從原始文件構建訓練集
    7.5.2  解析並載入GloVe
    7.5.3  在二分類模型中使用詞嵌入矩陣
    7.5.4  模型的編譯與訓練
    7.5.5  構建測試集與模型評估
  7.6  基於預訓練網路VGG16完成圖片分類任務
    7.6.1  預訓練網路
    7.6.2  預訓練網路之特徵提取方法
    7.6.3  預訓練網路之微調模型方法
  7.7  生成式深度學習實踐
    7.7.1  基於ResNet50的 Deep Dream技術實踐
    7.7.2  基於VGG19網路的風格遷移實踐
  7.8  使用自定義回調函數監控模型的行為
    7.8.1  將約束理論應用於模型調優
    7.8.2  構建全局回調函數
    7.8.3  構建epoch級的自定義回調函數
    7.8.4  構建batch級的自定義回調函數
第8章  模型的工程封裝與部署
  8.1  深度學習模型的工程封裝方法
  8.2  使用Flask部署神經網路模型
    8.2.1  Flask是什麼
    8.2.2  將模型部署成介面提供給第三方使用
    8.2.3  深度學習模型與Web應用協同工作
  8.3  基於TFX的部署實踐
    8.3.1  TensorFlow Serving服務模型
    8.3.2  基於TensorFlow Serving與Docker部署深度學習模型
第9章  回顧與展望
  9.1  神經網路的架構
  9.2  構建神經網路模型的流程與實踐
  9.3  深度學習的局限性與展望

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032