幫助中心 | 我的帳號 | 關於我們

解析深度學習(卷積神經網路原理與視覺實踐)

  • 作者:魏秀參
  • 出版社:電子工業
  • ISBN:9787121345289
  • 出版日期:2018/11/01
  • 裝幀:平裝
  • 頁數:185
人民幣:RMB 79 元      售價:
放入購物車
加入收藏夾

內容大鋼
    深度學習,特別是深度卷積神經網路是人工智慧的重要分支領域,卷積神經網路技術也被廣泛應用於各種現實場景,在許多問題上都取得了超越人類智能的結果。魏秀參著的《解析深度學習(卷積神經網路原理與視覺實踐)》作為該領域的入門書籍,在內容上涵蓋深度卷積神經網路的基礎知識和實踐應用兩大方面。全書共14章,分為三個部分:第一部分為緒論;第二部分(第1?4章)介紹卷積神經網路的基礎知識、基本部件、經典結構和模型壓縮等基礎理論內容;第三部分(第5?14章)介紹深度卷積神經網路自數據準備開始,到模型參數初始化、不同網路部件的選擇、網路配置、網路模型訓練、不平衡數據處理,最終到模型集成等實踐應用技巧和經驗。本書並不是一本編程類書籍,而是希望通過「基礎知識」和「實踐技巧」兩方面使讀者從更高維度了解、掌握並成功構建針對自身應用問題的深度卷積神經網路。
    本書可作為深度學習和卷積神經網路愛好者的入門書籍,也可供沒有機器學習背景但希望能快速掌握該方面知識並將其應用於實際問題的各行從業者閱讀參考。

作者介紹
魏秀參
    魏秀參,曠視科技(Face++)南京研究院負責人。南京大學LAMDA研究所博士,主要研究領域為電腦視覺和機器學習。在相關領域重要國際期刊和國際會議發表論文十余篇,並獲得國際電腦視覺相關競賽冠、亞軍。曾獲CVPR 2017最佳審稿人、南京大學博士生校長特別獎學金等榮譽,擔任ICCV、CVPR、ECCV、NIPS、lJCAI、AAAl等國際會議PC member。(個人自媒體:知乎「魏秀參」,新浪微博「Wilson NJUer」)

目錄
第一部分  緒論
第二部分  基礎理論篇
  1  卷積神經網路基礎知識
    1.1  發展歷程
    1.2  基本結構
    1.3  前饋運算
    1.4  反饋運算
    1.5  小結
  2  卷積神經網路基本部件
    2.1  「端到端」思想
    2.2  網路符號定義
    2.3  卷積層
      2.3.1  什麼是卷積
      2.3.2  卷積操作的作用
    2.4  匯合層
      2.4.1  什麼是匯合
      2.4.2  匯合操作的作用
    2.5  激活函數
    2.6  全連接層
    2.7  目標函數
    2.8  小結
  3  卷積神經網路經典結構
    3.1  CNN 網路結構中的重要概念
      3.1.1  感受野
      3.1.2  分散式表示
      3.1.3  深度特徵的層次性
    3.2  經典網路案例分析
      3.2.1  Alex-Net網路模型
      3.2.2  VGG-Nets網路模型
      3.2.3  Network-In-Network
      3.2.4  殘差網路模型
    3.3  小結
  4  卷積神經網路的壓縮
    4.1  低秩近似
    4.2  剪枝與稀疏約束
    4.3  參數量化
    4.4  二值網路
    4.5  知識蒸餾
    4.6  緊湊的網路結構
    4.7  小結
第三部分  實踐應用篇
  5  數據擴充
    5.1  簡單的數據擴充方式
    5.2  特殊的數據擴充方式
      5.2.1  Fancy PCA
      5.2.2  監督式數據擴充
    5.3  小結
  6  數據預處理
  7  網路參數初始化
    7.1  全零初始化

    7.2  隨機初始化
    7.3  其他初始化方法
    7.4  小結
  8  激活函數
    8.1  Sigmoid型函數
    8.2  tanh(x)型函數
    8.3  修正線性單元(ReLU)
    8.4  Leaky ReLU
    8.5  參數化ReLU
    8.6  隨機化ReLU
    8.7  指數化線性單元(ELU)
    8.8  小結
  9 目標函數
    9.1  分類任務的目標函數
      9.1.1  交叉熵損失函數
      9.1.2  合頁損失函數
      9.1.3  坡道損失函數
      9.1.4  大間隔交叉熵損失函數
      9.1.5  中心損失函數
    9.2  回歸任務的目標函數
      9.2.1  l1 損失函數
      9.2.2  l2 損失函數
      9.2.3  Tukey's biweight損失函數
    9.3  其他任務的目標函數
    9.4  小結
  10 網路正則化
    10.1  l2 正則化
    10.2  l1 正則化
    10.3  最大范數約束
    10.4  隨機失活
    10.5  驗證集的使用
    10.6  小結
  11  超參數設定和網路訓練
    11.1  網路超參數設定
      11.1.1  輸入數據像素大小
      11.1.2  卷積層參數的設定
      11.1.3  匯合層參數的設定
    11.2  訓練技巧
      11.2.1  訓練數據隨機打亂
      11.2.2  學習率的設定
      11.2.3  批規範化操作
      11.2.4  網路模型優化演算法選擇
      11.2.5  微調神經網路
    11.3  小結
  12  不平衡樣本的處理
    12.1  數據層面處理方法
      12.1.1  數據重採樣
      12.1.2  類別平衡採樣
    12.2  演算法層面處理方法
      12.2.1  代價敏感方法

      12.2.2  代價敏感法中權重的指定方式
    12.3  小結
  13  模型集成方法
    13.1  數據層面的集成方法
      13.1.1  測試階段數據擴充
      13.1.2  「簡易集成」法
    13.2  模型層面的集成方法
      13.2.1  單模型集成
      13.2.2  多模型集成
    13.3  小結
  14  深度學習開源工具簡介
    14.1  常用框架對比
    14.2  常用框架的各自特點
      14.2.1  Caffe
      14.2.2  Deeplearning4j
      14.2.3  Keras
      14.2.4  MXNet
      14.2.5  MatConvNet
      14.2.6  TensorFlow
      14.2.7  Theano
      14.2.8  Torch
A  向量、矩陣及其基本運算
B  隨機梯度下降
C  鏈式法則
參考文獻
索引

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032