幫助中心 | 我的帳號 | 關於我們

深入理解神經網路(從邏輯回歸到CNN)

  • 作者:張覺非
  • 出版社:人民郵電
  • ISBN:9787115517234
  • 出版日期:2019/09/01
  • 裝幀:平裝
  • 頁數:310
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書以神經網路為線索,沿著從線性模型到深度學習的路線講解神經網路的原理和實現。本書將數學基礎知識與機器學習和神經網路緊密結合,包含線性模型的結構與局限、損失函數、基於一階和二階信息的優化演算法、模型自由度與正則化、神經網路的表達能力、反向傳播與計算圖自動求導、卷積神經網路等主題,幫助讀者建立基於數學原理的較深刻的洞見和認知。本書還提供了邏輯回歸、多層全連接神經網路和多種訓練演算法的Python實現,以及運用TensorFlow搭建和訓練多種卷積神經網路的代碼實例。
    本書適合渴望加深對神經網路和深度學習原理理解的高年級本科生與研究生、廣大程序員與工程師,以及對機器學習的原理和編程實現感興趣的所有讀者閱讀。

作者介紹
張覺非
    張覺非,本科畢業於復旦大學電腦系,于中國科學院古脊椎動物與古人類研究所取得古生物學碩士學位,目前在互聯網行業從事機器學習演算法相關工作。

目錄
第一部分  線性模型
  第1章  邏輯回歸
    1.1  作為一個神經元的邏輯回歸
    1.2  基礎向量幾何
      1.2.1  向量
      1.2.2  向量的和、數乘與零向量
      1.2.3  向量的內積、模與投影
      1.2.4  線性空間、基與線性函數
      1.2.5  直線、超平面與仿射函數
    1.3  從幾何角度理解邏輯回歸的能力和局限
    1.4  實例:根據鳥類骨骼判斷生態類群
    1.5  小結
  第2章  模型評價與損失函數
    2.1  訓練集與測試集
    2.2  分類模型的評價
      2.2.1  混淆矩陣
      2.2.2  正確率
      2.2.3  查准率
      2.2.4  查全率
      2.2.5  ROC曲線
    2.3  損失函數
      2.3.1  K-L散度與交叉熵
      2.3.2  最大似然估計
      2.3.3  從幾何角度理解交叉熵損失
    2.4  小結
  第3章  梯度下降法
    3.1  多元函數的微分
      3.1.1  梯度
      3.1.2  方嚮導數
      3.1.3  偏導數
      3.1.4  駐點
      3.1.5  局部極小點
    3.2  梯度下降法
      3.2.1  反梯度場
      3.2.2  梯度下降法
      3.2.3  梯度下降法的問題
    3.3  梯度下降法的改進
      3.3.1  學習率調度
      3.3.2  衝量法
      3.3.3  AdaGrad
      3.3.4  RMSProp
      3.3.5  Adam
    3.4  運用梯度下降法訓練邏輯回歸
    3.5  梯度下降法訓練邏輯回歸的Python實現
    3.6  小結
  第4章  超越梯度下降
    4.1  矩陣
      4.1.1  矩陣基礎
      4.1.2  矩陣的逆
      4.1.3  特徵值與特徵向量

      4.1.4  對稱矩陣的譜分解
      4.1.5  奇異值分解
      4.1.6  二次型
    4.2  多元函數的局部二階特性
      4.2.1  赫森矩陣
      4.2.2  二階泰勒展開
      4.2.3  駐點的類型
      4.2.4  赫森矩陣的條件數
    4.3  基於二階特性的優化
      4.3.1  牛頓法
      4.3.2  共軛方向法
    4.4  運用牛頓法訓練邏輯回歸
    4.5  牛頓法訓練邏輯回歸的Python實現
    4.6  小結
  第5章  正則化
    5.1  概率論回顧
      5.1.1  隨機變數
      5.1.2  多元隨機變數
      5.1.3  多元隨機變數的期望和協方差矩陣
      5.1.4  樣本均值和樣本協方差矩陣
      5.1.5  主成分
      5.1.6  正態分佈
    5.2  模型自由度與偏置方差權衡
      5.2.1  最小二乘線性回歸
      5.2.2  模型自由度
      5.2.3  偏置方差權衡
    5.3  正則化
      5.3.1  嶺回歸與L2正則化
      5.3.2  L2正則化的貝葉斯視角
      5.3.3  L1正則化
    5.4  過擬合與欠擬合
    5.5  運用L2正則化訓練邏輯回歸
    5.6  運用L2正則化訓練邏輯回歸的Python實現
    5.7  小結
第二部分  神經網路
  第6章  神經網路
    6.1  合作的神經元
    6.2  多層全連接神經網路
    6.3  激活函數
      6.3.1  Linear
      6.3.2  Logistic
      6.3.3  Tanh
      6.3.4  ReLU
      6.3.5  Leaky ReLU以及PReLU
      6.3.6  SoftPlus
    6.4  多分類與SoftMax
    6.5  小結
  第7章  反向傳播
    7.1  映射
      7.1.1  仿射映射

      7.1.2  雅可比矩陣
      7.1.3  鏈式法則
    7.2  反向傳播
      7.2.1  網路的符號表示
      7.2.2  原理
      7.2.3  實現
    7.3  相關問題
      7.3.1  計算量
      7.3.2  梯度消失
      7.3.3  正則化
      7.3.4  權值初始化
      7.3.5  提前停止
    7.4  多層全連接神經網路的Python實現
    7.5  小結
  第8章  計算圖
    8.1  計算圖模型
      8.1.1  簡介
      8.1.2  多層全連接神經網路的計算圖
      8.1.3  其他神經網路結構的計算圖
    8.2  自動求導
    8.3  自動求導的實現
    8.4  計算圖的Python實現
    8.5  小結
  第9章  卷積神經網路
    9.1  卷積
      9.1.1  一元函數的卷積
      9.1.2  多元函數的卷積
      9.1.3  濾波器
    9.2  卷積神經網路的組件
      9.2.1  卷積層
      9.2.2  激活層
      9.2.3  池化層
      9.2.4  全連接層
      9.2.5  跳躍連接
    9.3  深度學習的正則化方法
      9.3.1  權值衰減
      9.3.2  Dropout
      9.3.3  權值初始化
      9.3.4  批標準化
      9.3.5  數據增強
    9.4  小結
  第10章  經典CNN
    10.1  LeNet-5
    10.2  AlexNet
    10.3  VGGNet
    10.4  GoogLeNet
    10.5  ResNet
    10.6  小結
  第11章  TensorFlow實例
    11.1  多分類邏輯回歸

    11.2  多層全連接神經網路
    11.3  LeNet-5
    11.4  AlexNet
    11.5  VGG16
    11.4  小結
附錄  ACNN與元胞自動機
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032