幫助中心 | 我的帳號 | 關於我們

深度學習精粹與PyTorch實踐

  • 作者:(美)愛德華·拉夫|責編:王軍|譯者:郭濤
  • 出版社:清華大學
  • ISBN:9787302669111
  • 出版日期:2024/08/01
  • 裝幀:平裝
  • 頁數:494
人民幣:RMB 228 元      售價:
放入購物車
加入收藏夾

內容大鋼
    深度學習絕非不可窺探的黑箱!深入理解其模型和演算法的實際運作機制,是駕馭並優化結果的關鍵。你無需成為數學專家或資深數據科學家,同樣能夠掌握深度學習系統內部的工作原理。本書旨在通過深入淺出的方式,為你揭示這些原理,讓你在理解和解釋自己的工作時更加自信與從容。
    《深度學習精粹與PyTorch實踐》以淺顯易懂的方式揭示了深度學習演算法的內部運作機制,即使是機器學習初學者也能輕鬆理解。本書通過平實的語言解析、詳盡的代碼註釋,以及數十個基於PyTorch框架的實戰示例,逐步引導你探索深度學習的核心概念與實用工具。本書避免了複雜的數學公式堆砌,而是採用直觀易懂的方式闡述每種神經網路類型的運作邏輯。更令人興奮的是,書中提供的所有解決方案均可在現有的GPU硬體上順暢運行!
    主要內容:
    選擇正確的深度學習組件;
    訓練和評估深度學習模型;
    微調深度學習模型以實現性能最大化;
    了解深度學習術語。

作者介紹
(美)愛德華·拉夫|責編:王軍|譯者:郭濤

目錄
第1章  學習的機制
  1.1  Colab入門
  1.2  張量
  1.3  自動微分
    1.3.1  使用導數將損失降至最低
    1.3.2  使用自動微分計算導數
    1.3.3  知識整合:使用導數最小化函數
  1.4  優化參數
  1.5  載入數據集對象
  1.6  練習
  1.7  小結
第2章  全連接網路
  2.1  優化神經網路
    2.1.1  訓練神經網路的符號
    2.1.2  建立線性回歸模型
    2.1.3  訓練循環
    2.1.4  定義數據集
    2.1.5  定義模型
    2.1.6  定義損失函數
    2.1.7  知識整合:在數據上訓練線性回歸模型
  2.2  構建第一個神經網路
    2.2.1  全連接網路的符號
    2.2.2  PyTorch中的全連接網路
    2.2.3  增加非線性
  2.3  分類問題
    2.3.1  分類簡單問題
    2.3.2  分類損失函數
    2.3.3  訓練分類網路
  2.4  更好地訓練代碼
    2.4.1  自定義指標
    2.4.2  訓練和測試階段
    2.4.3  保存檢查點
    2.4.4  知識整合:更好的模型訓練函數
  2.5  批量訓練
  2.6  練習
  2.7  小結
第3章  卷積神經網路
  3.1  空間結構先驗信念
  3.2  什麼是卷積
    3.2.1  一維卷積
    3.2.2  二維卷積
    3.2.3  填充
    3.2.4  權重共享
  3.3  卷積如何有益於圖像處理
  3.4  付諸實踐:我們的第一個CNN
    3.4.1  使用多個過濾器生成卷積層
    3.4.2  每層使用多個過濾器
    3.4.3  通過展平將卷積層與線性層混合
    3.4.4  第一個CNN的PyTorch代碼
  3.5  添加池化以減少對象移動

  3.6  數據增強
  3.7  練習
  3.8  小結
第4章  循環神經網路
  4.1  作為權重共享的循環神經網路
    4.1.1  全連接網路的權重共享
    4.1.2  隨時間共享權重
  4.2  在PyTorch中實現RNN
    4.2.1  一個簡單的序列分類問題
    4.2.2  嵌入層
    4.2.3  使用最後一個時間步長進行預測
  4.3  通過打包減短訓練時間
    4.3.1  填充和打包
    4.3.2  可打包嵌入層
    4.3.3  訓練批量RNN
    4.3.4  同時打包和解包輸入
  4.4  更為複雜的RNN
    4.4.1  多層
    4.4.2  雙向RNN
  4.5  練習
  4.6  小結
第5章  現代訓練技術
  5.1  梯度下降分兩部分進行
    5.1.1  添加學習率調度器
    5.1.2  添加優化器
    5.1.3  實現優化器和調度器
  5.2  學習率調度器
    5.2.1  指數衰減:平滑不穩定訓練
    5.2.2  步長下降調整:更平滑
    5.2.3  餘弦退火:準確率更高但穩定性較差
    5.2.4  驗證平台:基於數據的調整
    5.2.5  比較調度器
  5.3  更好地利用梯度
    5.3.1  SGD與動量:適應梯度一致性
    5.3.2  Adam:增加動量變化
    5.3.3  梯度修剪:避免梯度爆炸
  5.4  使用Optuna進行超參數優化
    5.4.1  Optuna
    5.4.2  使用PyTorch的Optuna
    5.4.3  使用Optuna修剪試驗
  5.5  練習
  5.6  小結
第6章  通用設計構建塊
  6.1  更好的激活函數
    6.1.1  梯度消失
    6.1.2  校正線性單位(ReLU):避免梯度消失
    6.1.3  使用LeakyReLU激活訓練
  6.2  歸一化層:神奇地促進收斂
    6.2.1  歸一化層用於何處
    6.2.2  批量歸一化

    6.2.3  使用批量歸一化進行訓練
    6.2.4  層歸一化
    6.2.5  使用層歸一化進行訓練
    6.2.6  使用哪個歸一化層
    6.2.7  層歸一化的特點
  6.3  跳躍連接:網路設計模式
    6.3.1  實施全連接的跳躍
    6.3.2  實現卷積跳躍
  6.41  ×1卷積:在通道中共享和重塑信息
  6.5  殘差連接
    6.5.1  殘差塊
    6.5.2  實現殘差塊
    6.5.3  殘差瓶頸
    6.5.4  實現殘差瓶頸
  6.6  長短期記憶網路RNN
    6.6.1  RNN:快速回顧
    6.6.2  LSTM和門控機制
    6.6.3  LSTM訓練
  6.7  練習
  6.8  小結
第Ⅱ部分構建高級網路
第7章  自動編碼和自監督
  7.1  自動編碼的工作原理
    7.1.1  主成分分析是自動編碼器的瓶頸
    7.1.2  實現PCA
    7.1.3  使用PyTorch實現PCA
    7.1.4  可視化PCA結果
    7.1.5  簡單的非線性PCA
  7.2  設計自動編碼神經網路
    7.2.1  實現自動編碼器
    7.2.2  可視化自動編碼器結果
  7.3  更大的自動編碼器
  7.4  自動編碼器去噪
  7.5  時間序列和序列的自回歸模型
    7.5.1  實現char-RNN自回歸文本模型
    7.5.2  自回歸模型是生成模型
    7.5.3  隨著溫度調整採樣
    7.5.4  更快地採樣
  7.6  練習
  7.7  小結
第8章  目標檢測
  8.1  圖像分割
    8.1.1  核檢測:載入數據
    8.1.2  在PyTorch中表示圖像分割問題
    8.1.3  建立第一個圖像分割網路
  8.2  用於擴展圖像大小的轉置卷積
  8.3  U-Net:查看精細和粗糙的細節
  8.4  帶邊界框的目標檢測
    8.4.1  FasterR-CNN
    8.4.2  在PyTorch中實現FasterR-CNN

    8.4.3  抑制重疊框
  8.5  使用預訓練的FasterR-CNN
  8.6  練習
  8.7  小結
第9章  生成對抗網路
  9.1  理解生成對抗網路
    9.1.1  損失計算
    9.1.2  GAN博弈
    9.1.3  實現第一個GAN
  9.2  模式崩潰
  9.3  WassersteinGAN:緩解模式崩潰
    9.3.1  WGAN判別器損失
    9.3.2  WGAN生成器損失
    9.3.3  實現WGAN
  9.4  卷積GAN
    9.4.1  設計卷積生成器
    9.4.2  設計卷積判別器
  9.5  條件GAN
    9.5.1  實現條件GAN
    9.5.2  訓練條件GAN
    9.5.3  使用條件GAN控制生成
  9.6  GAN潛在空間概覽
    9.6.1  從Hub獲取模型
    9.6.2  對GAN輸出進行插值
    9.6.3  標記潛在維度
  9.7  深度學習中的倫理問題
  9.8  練習
  9.9  小結
第10章  注意力機制
  10.1  注意力機制學習相對輸入重要性
    10.1.1  訓練基線模型
    10.1.2  注意力機制
    10.1.3  實現簡單的注意力機制
  10.2  添加上下文
    10.2.1  點分數
    10.2.2  總分數
    10.2.3  附加註意力
    10.2.4  計算注意力權重
  10.3  知識整合:一種有上下文的完整注意力機制
  10.4  練習
  10.5  小結
第11章  序列到序列
  11.1  序列到序列作為一種去噪自動編碼器
  11.2  機器翻譯和數據載入器
  11.3  序列到序列的輸入
    11.3.1  自回歸法
    11.3.2  教師強製法
    11.3.3  教師強製法與自回歸法的比較
  11.4  序列到序列注意力
    11.4.1  實現序列到序列

    11.4.2  訓練和評估
  11.5  練習
  11.6  小結
第12章  RNN的網路設計替代方案
  12.1  TorchText:處理文本問題的工具
    12.1.1  安裝TorchText
    12.1.2  在TorchText中載入數據集
    12.1.3  定義基線模型
  12.2  隨時間平均嵌入
  12.3  隨時間池化和一維CNN
  12.4  位置嵌入為任何模型添加序列信息
    12.4.1  實現位置編碼模塊
    12.4.2  定義位置編碼模型
  12.5  Transformer:大數據的大模型
    12.5.1  多頭注意力
    12.5.2  transformer模塊
  12.6  練習
  12.7  小結
第13章  遷移學習
  13.1  遷移模型參數
  13.2  遷移學習和使用CNN進行訓練
    13.2.1  調整預訓練網路
    13.2.2  預處理預訓練的ResNet
    13.2.3  熱啟動訓練
    13.2.4  使用凍結權重進行訓練
  13.3  用較少的標籤學習
  13.4  文本預訓練
    13.4.1  帶有HuggingFace庫的transformer
    13.4.2  無梯度的凍結權重
  13.5  練習
  13.6  小結
第14章  高級構件
  14.1  池化問題
    14.1.1  鋸齒損害了平移不變性
    14.1.2  通過模糊實現抗鋸齒
    14.1.3  應用抗鋸齒池化
  14.2  改進后的殘差塊
    14.2.1  有效深度
    14.2.2  實現ReZero
  14.3  混合訓練減少過擬合
    14.3.1  選擇混合率
    14.3.2  實現MixUp
  14.4  練習
  14.5  小結
附錄A  設置Colab

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032