幫助中心 | 我的帳號 | 關於我們

深度學習

  • 作者:(美)伊恩·古德費洛//(加)約書亞·本吉奧//亞倫·庫維爾|譯者:趙申劍//黎彧君//符天凡//李凱
  • 出版社:人民郵電
  • ISBN:9787115461476
  • 出版日期:2017/08/01
  • 裝幀:平裝
  • 頁數:500
人民幣:RMB 168 元      售價:
放入購物車
加入收藏夾

內容大鋼
    由美國伊恩·古德費洛、加拿大約書亞·本吉奧和加拿大亞倫·庫維爾所著,趙申劍、黎彧君、符天凡和李凱共同翻譯、張志華等審校的《深度學習》一書分為3個部分,第1部分介紹基本的數學工具和機器學習的概念,它們是深度學習的預備知識;第2部分深入地講解現今已成熟的深度學習方法和技術;第3部分討論某些具有前瞻性的方向和想法,它們被公認為是深度學習未來的研究重點。
    《深度學習》由全球知名的三位專家Ian Goodfellow、Yoshua Bengio和Aaron Courville撰寫,是深度學習領域奠基性的經典教材。全書的內容包括3個部分:第1部分介紹基本的數學工具和機器學習的概念,它們是深度學習的預備知識;第2部分系統深入地講解現今已成熟的深度學習方法和技術;第3部分討論某些具有前瞻性的方向和想法,它們被公認為是深度學習未來的研究重點。
    《深度學習》適合各類讀者閱讀,包括相關專業的大學生或研究生,以及不具有機器學習或統計背景、但是想要快速補充深度學習知識,以便在實際產品或平台中應用的軟體工程師。
    《深度學習》這本書既可以被本科生或研究生用於規劃其學術界或工業界生涯,也適用於希望在各種產品或平台上開始使用深度學習技術的軟體工程師。作者在本書的配套網站上為讀者和教師提供了補充資料。

作者介紹
(美)伊恩·古德費洛//(加)約書亞·本吉奧//亞倫·庫維爾|譯者:趙申劍//黎彧君//符天凡//李凱

目錄
第1章  引言
  1.1  本書面向的讀者
  1.2  深度學習的歷史趨勢
    1.2.1  神經網路的眾多名稱和命運變遷
    1.2.2  與日俱增的數據量
    1.2.3  與日俱增的模型規模
    1.2.4  與日俱增的精度、複雜度和對現實世界的衝擊
第1部分  應用數學與機器學習基礎
  第2章  線性代數
    2.1  標量、向量、矩陣和張量
    2.2  矩陣和向量相乘
    2.3  單位矩陣和逆矩陣
    2.4  線性相關和生成子空間
    2.5  范數
    2.6  特殊類型的矩陣和向量
    2.7  特徵分解
    2.8  奇異值分解
    2.9  Moore-Penrose偽逆
    2.10  跡運算
    2.11  行列式
    2.12  實例:主成分分析
  第3章  概率與資訊理論
    3.1  為什麼要使用概率
    3.2  隨機變數
    3.3  概率分佈
      3.3.1  離散型變數和概率質量函數
      3.3.2  連續型變數和概率密度函數
    3.4  邊緣概率
    3.5  條件概率
    3.6  條件概率的鏈式法則
    3.7  獨立性和條件獨立性
    3.8  期望、方差和協方差
    3.9  常用概率分佈
      3.9.1  Bernoulli分佈
      3.9.2  Multinoulli分佈
      3.9.3  高斯分佈
      3.9.4  指數分佈和Laplace分佈
      3.9.5  Dirac分佈和經驗分佈
      3.9.6  分佈的混合
    3.10  常用函數的有用性質
    3.11  貝葉斯規則
    3.12  連續型變數的技術細節
    3.13  資訊理論
    3.14  結構化概率模型
  第4章  數值計算
    4.1  上溢和下溢
    4.2  病態條件
    4.3  基於梯度的優化方法
      4.3.1  梯度之上:Jacobian和Hessian矩陣
    4.4  約束優化

    4.5  實例:線性最小二乘
  第5章  機器學習基礎
    5.1  學習演算法
      5.1.1  任務T
      5.1.2  性能度量P
      5.1.3  經驗E
      5.1.4  示例:線性回歸
    5.2  容量、過擬合和欠擬合
      5.2.1  沒有午餐定理
      5.2.2  正則化
    5.3  超參數和驗證集
      5.3.1  交叉驗證
    5.4  估計、偏差和方差
      5.4.1  點估計
      5.4.2  偏差
      5.4.3  方差和標準差
      5.4.4  權衡偏差和方差以最小化均方誤差
      5.4.5  一致性
    5.5  最大似然估計
      5.5.1  條件對數似然和均方誤差
      5.5.2  最大似然的性質
    5.6  貝葉斯統計
      5.6.1  最大后驗(MAP)估計
    5.7  監督學習演算法
      5.7.1  概率監督學習
      5.7.2  支持向量機
      5.7.3  其他簡單的監督學習演算法
    5.8  無監督學習演算法
      5.8.1  主成分分析
      5.8.2  k均值聚類
    5.9  隨機梯度下降
    5.10  構建機器學習演算法
    5.11  促使深度學習發展的挑戰
      5.11.1  維數災難
      5.11.2  局部不變性和平滑正則化
      5.11.3  流形學習
第2部分  深度網路:現代實踐
  第6章  深度前饋網路
    6.1  實例:學習XOR
    6.2  基於梯度的學習
      6.2.1  代價函數
      6.2.2  輸出單元
    6.3  隱藏單元
      6.3.1  整流線性單元及其擴展
      6.3.2  logistic sigmoid與雙曲正切函數
      6.3.3  其他隱藏單元
    6.4  架構設計
      6.4.1  萬能近似性質和深度
      6.4.2  其他架構上的考慮
    6.5  反向傳播和其他的微分演算法

      6.5.1  計算圖
      6.5.2  微積分中的鏈式法則
      6.5.3  遞歸地使用鏈式法則來實現反向傳播
      6.5.4  全連接MLP中的反向傳播計算
      6.5.5  符號到符號的導數
      6.5.6  一般化的反向傳播
      6.5.7  實例:用於MLP訓練的反向傳播
      6.5.8  複雜化
      6.5.9  深度學習界以外的微分
      6.5.10  高階微分
    6.6  歷史小記
第7章  深度學習中的正則化
  7.1  參數范數懲罰
    7.1.1  L2參數正則化
    7.1.2  L1正則化
  7.2  作為約束的范數懲罰
  7.3  正則化和欠約束問題
  7.4  數據集增強
  7.5  雜訊魯棒性
    7.5.1  向輸出目標注入雜訊
  7.6  半監督學習
  7.7  多任務學習
  7.8  提前終止
  7.9  參數綁定和參數共享
    7.9.1  卷積神經網路
  7.10  稀疏表示
  7.11  Bagging和其他集成方法
  7.12  Dropout
  7.13  對抗訓練
  7.14  切面距離、正切傳播和流形正切分類器
第8章  深度模型中的優化
  8.1  學習和純優化有什麼不同
    8.1.1  經驗風險最小化
    8.1.2  代理損失函數和提前終止
    8.1.3  批量演算法和小批量演算法
  8.2  神經網路優化中的挑戰
    8.2.1  病態
    8.2.2  局部極小值
    8.2.3  高原、鞍點和其他平坦區域
    8.2.4  懸崖和梯度爆炸
    8.2.5  長期依賴
    8.2.6  非精確梯度
    8.2.7  局部和全局結構間的弱對應
    8.2.8  優化的理論限制
  8.3  基本演算法
    8.3.1  隨機梯度下降
    8.3.2  動量
    8.3.3  Nesterov動量
  8.4  參數初始化策略
  8.5  自適應學習率演算法

    8.5.1  AdaGrad
    8.5.2  RMSProp
    8.5.3  Adam
    8.5.4  選擇正確的優化演算法
  8.6  二階近似方法
    8.6.1  牛頓法
    8.6.2  共軛梯度
    8.6.3  BFGS
  8.7  優化策略和元演算法
    8.7.1  批標準化
    8.7.2  坐標下降
    8.7.3  Polyak平均
    8.7.4  監督預訓練
    8.7.5  設計有助於優化的模型
    8.7.6  延拓法和課程學習
第9章  卷積網路
  9.1  卷積運算
  9.2  動機
  9.3  池化
  9.4  卷積與池化作為一種無限強的先驗
  9.5  基本卷積函數的變體
  9.6  結構化輸出
  9.7  數據類型
  9.8  高效的卷積演算法
  9.9  隨機或無監督的特徵
  9.10  卷積網路的神經科學基礎
  9.11  卷積網路與深度學習的歷史
第10章  序列建模:循環和遞歸網路
  10.1  展開計算圖
  10.2  循環神經網路
    10.2.1  導師驅動過程和輸出循環網路
    10.2.2  計算循環神經網路的梯度
    10.2.3  作為有向圖模型的循環網路
    10.2.4  基於上下文的RNN序列建模
  10.3  雙向RNN
  10.4  基於編碼-解碼的序列到序列架構
  10.5  深度循環網路
  10.6  遞歸神經網路
  10.7  長期依賴的挑戰
  10.8  回聲狀態網路
  10.9  滲漏單元和其他多時間尺度的策略
    10.9.1  時間維度的跳躍連接
    10.9.2  滲漏單元和一系列不同時間尺度
    10.9.3  刪除連接
  10.10  長短期記憶和其他門控RNN
    10.10.1  LSTM
    10.10.2  其他門控RNN
  10.11  優化長期依賴
    10.11.1  截斷梯度
    10.11.2  引導信息流的正則化

  10.12  外顯記憶
第11章  實踐方法論
  11.1  性能度量
  11.2  默認的基準模型
  11.3  決定是否收集更多數據
  11.4  選擇超參數
    11.4.1  手動調整超參數
    11.4.2  自動超參數優化演算法
    11.4.3  網格搜索
    11.4.4  隨機搜索
    11.4.5  基於模型的超參數優化
  11.5  調試策略
  11.6  示例:多位數字識別
第12章  應用
  12.1  大規模深度學習
    12.1.1  快速的CPU實現
    12.1.2  GPU實現
    12.1.3  大規模的分散式實現
    12.1.4  模型壓縮
    12.1.5  動態結構
    12.1.6  深度網路的專用硬體實現
  12.2  電腦視覺
    12.2.1  預處理
    12.2.2  數據集增強
  12.3  語音識別
  12.4  自然語言處理
    12.4.1  n-gram
    12.4.2  神經語言模型
    12.4.3  高維輸出
    12.4.4  結合n-gram和神經語言模型
    12.4.5  神經機器翻譯
    12.4.6  歷史展望
  12.5  其他應用
    12.5.1  推薦系統
    12.5.2  知識表示、推理和回答
第3部分  深度學習研究
  第13章  線性因子模型
    13.1  概率PCA和因子分析
    13.2  獨立成分分析
    13.3  慢特徵分析
    13.4  稀疏編碼
    13.5  PCA的流形解釋
  第14章  自編碼器
    14.1  欠完備自編碼器
    14.2  正則自編碼器
      14.2.1  稀疏自編碼器
      14.2.2  去噪自編碼器
      14.2.3  懲罰導數作為正則
    14.3  表示能力、層的大小和深度
    14.4  隨機編碼器和解碼器

    14.5  去噪自編碼器詳解
      14.5.1  得分估計
      14.5.2  歷史展望
    14.6  使用自編碼器學習流形
    14.7  收縮自編碼器
    14.8  預測稀疏分解
    14.9  自編碼器的應用
  第15章  表示學習
    15.1  貪心逐層無監督預訓練
      15.1.1  何時以及為何無監督預訓練有效有效
    15.2  遷移學習和領域自適應
    15.3  半監督解釋因果關係
    15.4  分散式表示
    15.5  得益於深度的指數增益
    15.6  提供發現潛在原因的線索
  第16章  深度學習中的結構化概率模型
    16.1  非結構化建模的挑戰
    16.2  使用圖描述模型結構
      16.2.1  有向模型
      16.2.2  無向模型
      16.2.3  配分函數
      16.2.4  基於能量的模型
      16.2.5  分離和d-分離
      16.2.6  在有向模型和無向模型中轉換
      16.2.7  因子圖
    16.3  從圖模型中採樣
    16.4  結構化建模的優勢
    16.5  學習依賴關係
    16.6  推斷和近似推斷
    16.7  結構化概率模型的深度學習方法
      16.7.1  實例:受限玻爾茲曼機
  第17章  蒙特卡羅方法
    17.1  採樣和蒙特卡羅方法
      17.1.1  為什麼需要採樣
      17.1.2  蒙特卡羅採樣的基礎
    17.2  重要採樣
    17.3  馬爾可夫鏈蒙特卡羅方法
    17.4  Gibbs採樣
    17.5  不同的峰值之間的混合挑戰
      17.5.1  不同峰值之間通過回火來混合
      17.5.2  深度也許會有助於混合
  第18章  直面配分函數
    18.1  對數似然梯度
    18.2  隨機最大似然和對比散度
    18.3  偽似然
    18.4  得分匹配和比率匹配
    18.5  去噪得分匹配
    18.6  雜訊對比估計
    18.7  估計配分函數
      18.7.1  退火重要採樣

      18.7.2  橋式採樣
  第19章  近似推斷
    19.1  把推斷視作優化問題
    19.2  期望最大化
    19.3  最大后驗推斷和稀疏編碼
    19.4  變分推斷和變分學習
      19.4.1  離散型潛變數
      19.4.2  變分法
      19.4.3  連續型潛變數
      19.4.4  學習和推斷之間的相互作用
    19.5  學成近似推斷
      19.5.1  醒眠演算法
      19.5.2  學成推斷的其他形式
第20章  深度生成模型
  20.1  玻爾茲曼機
  20.2  受限玻爾茲曼機
    20.2.1  條件分佈
    20.2.2  訓練受限玻爾茲曼機
  20.3  深度信念網路
  20.4  深度玻爾茲曼機
    20.4.1  有趣的性質
    20.4.2  DBM均勻場推斷
    20.4.3  DBM的參數學習
    20.4.4  逐層預訓練
    20.4.5  聯合訓練深度玻爾茲曼機
  20.5  實值數據上的玻爾茲曼機
    20.5.1  Gaussian-Bernoulli RBM
    20.5.2  條件協方差的無向模型
  20.6  卷積玻爾茲曼機
  20.7  用於結構化或序列輸出的玻爾茲曼機
  20.8  其他玻爾茲曼機
  20.9  通過隨機操作的反向傳播
    20.9.1  通過離散隨機操作的反向傳播
  20.10  有向生成網路
    20.10.1  sigmoid信念網路
    20.10.2  可微生成器網路
    20.10.3  變分自編碼器
    20.10.4  生成式對抗網路
    20.10.5  生成矩匹配網路
    20.10.6  卷積生成網路
    20.10.7  自回歸網路
    20.10.8  線性自回歸網路
    20.10.9  神經自回歸網路
    20.10.10  NADE
  20.11  從自編碼器採樣
    20.11.1  與任意去噪自編碼器相關的馬爾可夫鏈
    20.11.2  夾合與條件採樣
    20.11.3  回退訓練過程
  20.12  生成隨機網路
    20.12.1  判別性GSN

  20.13  其他生成方案
  20.14  評估生成模型
  20.15  結論
參考文獻
索引

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032