幫助中心 | 我的帳號 | 關於我們

深度學習與神經網路

  • 作者:編者:趙金晶//李虎//張明|責編:張正梅
  • 出版社:電子工業
  • ISBN:9787121473739
  • 出版日期:2024/02/01
  • 裝幀:平裝
  • 頁數:219
人民幣:RMB 86 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書系統介紹深度學習和神經網路的基礎知識體系與實踐方法,闡述各種主流神經網路模型,以及深度模型優化和正則化問題,使讀者能利用深度學習方法探索圖像識別、自然語言處理等具體場景下的模型構建與優化技術。
    全書分為7個章節。第1章緒論,梳理了人工智慧不同技術流派的特點、深度學習的發展及前沿技術;第2章介紹相關預備知識,包括線性代數、概率論、優化理論以及機器學習的基礎知識;第3章從前饋神經網路的基礎模型——感知器出發,介紹前饋神經網路的基本結構以及涉及的激活函數、梯度下降、反向傳播等內容;第4章,介紹深度模型的優化問題,討論了神經網路優化中常見的病態問題;第5章介紹深度學習中的正則化方法,包括范數懲罰、數據集增強與雜訊注入、提前停止等;第6章介紹了卷積神經網路,以及卷積神經網路在電腦視覺領域的具體應用;第7章通過實際案例介紹循環神經網路與卷積神經網路的結合應用。
    本書可作為高等院校人工智慧、電子信息、電腦等專業的研究生或本科生教材,也可作為相關領域的研究和工程技術人員的參考書籍。

作者介紹
編者:趙金晶//李虎//張明|責編:張正梅

目錄
第1章  緒論
  1.1  人工智慧
    1.1.1  人工智慧技術的發展歷程
    1.1.2  人工智慧技術的流派
  1.2  深度學習與神經網路概述
    1.2.1  深度學習與神經網路技術的發展歷程
    1.2.2  深度學習與神經網路的前沿技術
  1.3  深度學習系統架構
  1.4  深度學習框架
  1.5  深度學習的應用
    1.5.1  電腦視覺
    1.5.2  語音語義
    1.5.3  自然語言處理
  1.6  人工智慧潛在的安全風險
    1.6.1  數據層面的風險
    1.6.2  演算法模型層面的風險
    1.6.3  智能計算框架層面的風險
    1.6.4  基礎軟硬體層面的風險
    1.6.5  應用服務層面的風險
  本章小結
第2章  預備知識
  2.1  相關數學基礎
    2.1.1  線性代數
    2.1.2  概率論
    2.1.3  優化理論
  2.2  機器學習基礎
    2.2.1  機器學習演算法的基本流程
    2.2.2  機器學習常用評價指標
    2.2.3  典型機器學習演算法
  2.3  實驗環境基礎
    2.3.1  GPU 驅動的安裝配置
    2.3.2  依賴環境的安裝配置
    2.3.3  深度學習框架的安裝配置
    2.3.4  集成開發環境的安裝配置
  本章小結
第3章  前饋神經網路
  3.1  感知器
    3.1.1  單層感知器
    3.1.2  多層感知器
    3.1.3  前饋神經網路的基本結構
  3.2  激活函數
    3.2.1  Sigmoid函數
    3.2.2  ReLU函數
    3.2.3  Tanh函數
    3.2.4  Softmax函數
  3.3  誤差反向傳播
    3.3.1  梯度下降法
    3.3.2  鏈式法則
    3.3.3  反向傳播
  本章小結

第4章  深度模型的優化
  4.1  神經網路的優化問題
    4.1.1  局部最優和振蕩陷阱
    4.1.2  梯度爆炸和梯度消失
  4.2  常見的優化演算法
    4.2.1  梯度下降優化演算法
    4.2.2  二階優化演算法
  4.3  自適應學習率演算法
    4.3.1  AdaGrad演算法
    4.3.2  RMSprop演算法
    4.3.3  Adam 演算法
  4.4  參數初始化方法
    4.4.1  隨機初始化
    4.4.2  Xavier初始化
    4.4.3  He 初始化
  本章小結
第5章  深度學習中的正則化
  5.1  范數懲罰
    5.1.1  L1 正則化
    5.1.2  L2 正則化
  5.2  數據集增強與雜訊注入
    5.2.1  數據集增強
    5.2.2  雜訊注入
  5.3  提前停止
  5.4  Dropout
  5.5  批歸一化
  本章小結
第6章  卷積神經網路
  6.1  卷積神經網路的發展歷程
  6.2  卷積神經網路的基本組成
    6.2.1  卷積層
    6.2.2  池化層
    6.2.3  全連接層
  6.3  常見卷積神經網路結構
    6.3.1  VGG網路
    6.3.2  GoogLeNet網路
    6.3.3  ResNet網路
  6.4  深度生成網路
    6.4.1  生成對抗網路
    6.4.2  深度卷積生成對抗網路
  6.5  圖像分類案例
    6.5.1  步驟1:搭建環境
    6.5.2  步驟2:導入依賴庫
    6.5.3  步驟3:獲取數據
    6.5.4  步驟4:定義AlexNet網路
    6.5.5  步驟5:模型初始化
    6.5.6  步驟6:模型訓練
  6.6  目標檢測案例
    6.6.1  步驟1:環境配置和模型下載
    6.6.2  步驟2:主函數解析

    6.6.3  步驟3:終端指令運行
  本章小結
第7章  循環神經網路
  7.1  循環神經網路的基本原理
    7.1.1  循環神經網路的原理
    7.1.2  雙向循環神經網路
  7.2  循環神經網路在實際中的應用
    7.2.1  文本生成
    7.2.2  語音識別
    7.2.3  機器翻譯
    7.2.4  生成圖像描述
    7.2.5  視頻動作檢測
    7.2.6  信號分類
  7.3  長短期記憶網路及其他門控循環神經網路
    7.3.1  長短期記憶網路
    7.3.2  其他門控循環神經網路
  7.4  深度學習在文本和序列中的應用
    7.4.1  文本數據處理
    7.4.2  文本分類和情感分析
    7.4.3  機器翻譯
    7.4.4  命名實體識別
  7.5  卷積神經網路與循環神經網路
    7.5.1  卷積神經網路與循環神經網路的對比
    7.5.2  卷積神經網路與循環神經網路的組合應用
  7.6  案例:深度學習的詩歌生成
    7.6.1  步驟1:導入依賴庫
    7.6.2  步驟2:讀取數據
    7.6.3  步驟3:構造數據集
    7.6.4  步驟4:構造模型
    7.6.5  步驟5:訓練過程
    7.6.6  步驟6:生成文本
  7.7  案例:基於LSTM 演算法的股票預測
    7.7.1  步驟1:導入依賴庫
    7.7.2  步驟2:獲取並處理數據
    7.7.3  步驟3:構建預測數據序列
    7.7.4  步驟4:構建LSTM 網路
    7.7.5  步驟5:訓練網路
    7.7.6  步驟6:預測測試集
  7.8  案例:基於深度學習的文本分類
    7.8.1  步驟1:項目入口
    7.8.2  步驟2:訓練模塊
    7.8.3  步驟3:驗證和測試函數
    7.8.4  步驟4:數據預處理模塊
    7.8.5  步驟5:定義模型
    7.8.6  步驟6:分類結果展示
  本章小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032