幫助中心 | 我的帳號 | 關於我們

深度學習入門與實踐(新自動化從信息化到智能化高等院校自動化類新工科系列教材)

  • 作者:編者:王舒禹//呂鑫|責編:羅莉//翟天睿
  • 出版社:機械工業
  • ISBN:9787111725770
  • 出版日期:2023/06/01
  • 裝幀:平裝
  • 頁數:213
人民幣:RMB 59.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    大約在一百年前,電氣化改變了交通運輸行業、製造業、醫療行業、通信行業,如今AI帶來了同樣巨大的改變。AI的各個分支中發展最為迅速的方向之一就是深度學習。
    本書主要涉及以下內容:第1部分是神經網路的基礎,學習如何建立神經網路,以及如何在數據上面訓練它們。第2部分進行深度學習方面的實踐,學習如何構建神經網路與超參數調試、正則化以及一些高級優化演算法。第3部分學習卷積神經網路(CNN),以及如何搭建模型、有哪些經典模型。它經常被用於圖像領域,此外目標檢測、風格遷移等應用也將涉及。最後在第4部分學習序列模型,以及如何將它們應用於自然語言處理等任務。序列模型講到的演算法有循環神經網路(RNN)、長短期記憶網路(LSTM)、注意力機制。
    通過以上內容的學習,讀者可以入門深度學習領域並打下紮實基礎,為後續了解和探索人工智慧前沿科技做知識儲備。
    本書配有電子課件,需要配套資源的教師可登錄機械工業出版社教育服務網www.cmpedu.com免費註冊後下載。

作者介紹
編者:王舒禹//呂鑫|責編:羅莉//翟天睿

目錄
前言
第1部分  神經網路和深度學習
  第1章  深度學習簡介
    1.1  神經網路
    1.2  神經網路的監督學習應用
    1.3  為什麼深度學習會興起
  第2章  神經網路的編程基礎
    2.1  二分類
    2.2  邏輯回歸
    2.3  邏輯回歸的代價函數
    2.4  梯度下降法
    2.5  計算圖
    2.6  使用計算圖求導數
    2.7  邏輯回歸中的梯度下降
    2.8  m個樣本的梯度下降
    2.9  向量化
    2.10  向量化邏輯回歸
    2.11  向量化邏輯回歸的輸出
    2.12  Python中的廣播
    2.13  numpy向量
    2.14  logistic損失函數的解釋
  第3章  淺層神經網路
    3.1  神經網路概述
    3.2  神經網路的表示
    3.3  計算一個神經網路的輸出
    3.4  多樣本向量化
    3.5  激活函數
    3.6  激活函數的導數
    3.7  神經網路的梯度下降
    3.8  理解反向傳播
    3.9  隨機初始化
  第4章  深層神經網路
    4.1  深層神經網路概述
    4.2  前向傳播和反向傳播
    4.3  深層網路中矩陣的維數
    4.4  為什麼使用深層表示
    4.5  超參數
第2部分  改善深層神經網路:超參數調試、正則化以及優化
  第5章  深度學習的實踐
    5.1  訓練、驗證、測試集
    5.2  偏差、方差
    5.3  機器學習基礎
    5.4  正則化
    5.5  正則化如何降低過擬合
    5.6  dropout正則化
    5.7  理解dropout
    5.8  其他正則化方法
    5.9  歸一化輸入
    5.10  梯度消失/梯度爆炸
    5.11  梯度的數值逼近

    5.12  梯度檢驗
  第6章  優化演算法
    6.1  mini-batch梯度下降
    6.2  理解mini-batch梯度下降法
    6.3  動量梯度下降法
    6.4  RMSprop
    6.5  Adam優化演算法
    6.6  學習率衰減
    6.7  局部最優問題
  第7章  超參數調試、正則化
    7.1  調試處理
    7.2  超參數的合適範圍
    7.3  歸一化網路的激活函數
    7.4  將batch norm擬合進神經網路
    7.5  batch歸一化分析
    7.6  softmax回歸
    7.7  訓練一個aofmax分類器
    7.8  TensorFlow
第3部分  卷積神經網路及應用
  第8章  卷積神經網路
    8.1  電腦視覺
    8.2  邊緣檢測示例
    8.3  邊緣檢測內容
    8.4  填充
    8.5  卷積步長
    8.6  三維卷積
    8.7  單層卷積網路
    8.8  簡單卷積網路示例
    8.9  池化層
    8.10  卷積神經網路示例
    8.11  為什麼使用卷積
  第9章  深度卷積網路:實例探究
    9.1  經典網路
    9.2  殘差網路
    9.3  殘差網路為什麼有用
    9.4  網路中的1×1卷積
    9.5  谷歌Inception網路
    9.6  遷移學習
    9.7  數據增強
  第10章  目標檢測
    10.1  目標定位
    10.2  特徵點檢測
    10.3  目標檢測
    10.4  滑動窗口的卷積實現
    10.5  Bounding Box預測
    10.6  交並比
    10.7  非極大值抑制
    10.8  Anchor Boxes
    10.9  YOLO演算法
  第11章  特殊應用:人臉識別和神經風格遷移

    11.1  One-Shot學習
    11.2  Siamese網路
    11.3  Triplet損失
    11.4  人臉驗證與二分類
    11.5  神經風格遷移
    11.6  深度卷積網路學習什麼
    11.7  代價函數
    11.8  內容代價函數
    11.9  風格代價函數
    11.10  一維到三維推廣
第4部分  序列模型
  第12章  循環序列模型
    12.1  為什麼選擇序列模型
    12.2  數學符號
    12.3  循環神經網路模型
    12.4  通過時間的反向傳播
    12.5  不同類型的循環神經網路
    12.6  語言模型和序列生成
    12.7  對新序列採樣
    12.8  循環神經網路的梯度消失
    12.9  GRU單元
    12.10  長短期記憶
    12.11  雙向循環神經網路
    12.12  深層循環神經網路
  第13章  序列模型和注意力機制
    13.1  序列結構的各種序列
    13.2  選擇最可能的句子
    13.3  集束搜索
    13.4  改進集束搜索
    13.5  集束搜索的誤差分析
    13.6  注意力模型直觀理解
    13.7  注意力模型
附錄
  附錄A  深度學習符號指南
    A.1  數據標記與上下標
    A.2  神經網路模型
    A.3  正向傳播方程示例
    A.4  通用激活公式
    A.5  損失函數
    A.6  深度學習圖示
  附錄B  線性代數
    B.1  基礎概念和符號
    B.2  矩陣乘法

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032