幫助中心 | 我的帳號 | 關於我們

破解深度學習(核心篇模型演算法與實現)

  • 作者:瞿煒//李力//楊潔|責編:吳晉瑜
  • 出版社:人民郵電
  • ISBN:9787115651037
  • 出版日期:2024/10/01
  • 裝幀:平裝
  • 頁數:248
人民幣:RMB 109.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書旨在採用一種符合讀者認知角度且能提升其學習效率的方式來講解深度學習背後的核心知識、原理和內在邏輯。
    經過基礎篇的學習,想必你已經對深度學習的總體框架有了初步的了解和認識,掌握了深度神經網路從核心概念、常見問題到典型網路的基本知識。本書為核心篇,將帶領讀者實現從入門到進階、從理論到實戰的跨越。全書共7章,前三章包括複雜CNN、RNN和注意力機制網路,深入詳解各類主流模型及其變體;第4章介紹這三類基礎模型的組合體,即概率生成模型;第5章和第6章著重介紹這些複雜模型在電腦視覺和自然語言處理兩大最常見領域的應用;第7章講解生成式大語言模型的內在原理並對其發展趨勢予以展望。
    本書系統全面,深入淺出,且輔以生活中的案例進行類比,以此降低學習難度,能夠幫助讀者迅速掌握深度學習的基礎知識。本書適合有志於投身人工智慧領域的人員閱讀,也適合作為高等院校人工智慧相關專業的教學用書。

作者介紹
瞿煒//李力//楊潔|責編:吳晉瑜

目錄
第1章  複雜卷積神經網路:捕獲精細特徵
  1.1  AlexNet
    1.1.1  AlexNet簡介
    1.1.2  代碼實現
    1.1.3  模型訓練
    1.1.4  小結
  1.2  VGGNet
    1.2.1  VGGNet簡介
    1.2.2  代碼實現
    1.2.3  模型訓練
    1.2.4  小結
  1.3  批歸一化方法
    1.3.1  批歸一化簡介
    1.3.2  代碼實現
    1.3.3  模型訓練
    1.3.4  小結
  1.4  GoogLeNet
    1.4.1  GoogLeNet簡介
    1.4.2  Inception結構
    1.4.3  GoogLeNet的模型結構
    1.4.4  代碼實現
    1.4.5  模型訓練
    1.4.6  小結
  1.5  ResNet
    1.5.1  ResNet簡介
    1.5.2  殘差結構
    1.5.3  ResNet模型結構
    1.5.4  代碼實現
    1.5.5  模型訓練
    1.5.6  小結
  1.6  DenseNet
    1.6.1  DenseNet簡介
    1.6.2  代碼實現
    1.6.3  模型訓練
    1.6.4  小結
第2章  複雜循環神經網路:為記憶插上翅膀
  2.1  雙向RNN和深度RNN
    2.1.1  雙向RNN
    2.1.2  深度RNN
    2.1.3  小結
  2.2  RNN長期依賴問題
    2.2.1  什麼是長期依賴
    2.2.2  長期記憶失效原因
    2.2.3  截斷時間步
    2.2.4  小結
  2.3  長短期記憶網路及其變體
    2.3.1  核心思想
    2.3.2  網路結構
    2.3.3  遺忘門
    2.3.4  輸入門

    2.3.5  輸出門
    2.3.6  門控循環單元
    2.3.7  小結
  2.4  四種RNN代碼實現
    2.4.1  模型定義
    2.4.2  模型實驗
    2.4.3  效果對比
    2.4.4  小結
第3章  複雜注意力神經網路:大模型的力量
  3.1  BERT模型
    3.1.1  3種模型結構
    3.1.2  詞嵌入
    3.1.3  預訓練:掩碼語言模型
    3.1.4  預訓練:下一句預測
    3.1.5  微調
    3.1.6  優缺點
    3.1.7  小結
  3.2  GPT系列模型
    3.2.1  GPT-1模型思想和結構
    3.2.2  GPT-1無監督預訓練和監督微調
    3.2.3  GPT-1數據集和性能特點
    3.2.4  GPT-2模型思想和結構
    3.2.5  GPT-2數據集和性能特點
    3.2.6  GPT-3模型思想和結構
    3.2.7  基於情景學習的對話模式
    3.2.8  GPT-3數據集和性能特點
    3.2.9  小結
  3.3  T5模型
    3.3.1  基本思想
    3.3.2  詞表示發展史
    3.3.3  模型結構
    3.3.4  預訓練流程
    3.3.5  預訓練數據集
    3.3.6  模型版本
    3.3.7  小結
  3.4  ViT模型
    3.4.1  Transformer的好處
    3.4.2  模型結構
    3.4.3  數據預處理
    3.4.4  圖片塊和位置嵌入
    3.4.5  Transformer編碼器
    3.4.6  MLP頭
    3.4.7  性能對比
    3.4.8  小結
  3.5  Swin Transformer模型
    3.5.1  要解決的問題
    3.5.2  模型結構
    3.5.3  輸入預處理
    3.5.4  四個階段
    3.5.5  Swin Transformer塊

    3.5.6  窗口注意力
    3.5.7  計算複雜度分析
    3.5.8  移動窗口多頭自注意力機制
    3.5.9  特徵圖循環移位計算
    3.5.10  masked MSA操作
    3.5.11  小結
第4章  深度生成模型:不確定性的妙用
  4.1  蒙特卡洛方法
    4.1.1  採樣
    4.1.2  重要性採樣
    4.1.3  馬爾可夫鏈蒙特卡洛方法
    4.1.4  小結
  4.2  變分推斷方法
    4.2.1  參數估計
    4.2.2  問題定義
    4.2.3  演算法思路
    4.2.4  KL散度
    4.2.5  公式推導
    4.2.6  高斯混合模型實例
    4.2.7  與MCMC方法對比
    4.2.8  小結
  4.3  變分自編碼器
    4.3.1  降維思想
    4.3.2  自編碼器
    4.3.3  VAE基本思想
    4.3.4  隱空間可視化
    4.3.5  神經網路實現
    4.3.6  重新參數化技巧
    4.3.7  小結
  4.4  生成對抗網路
    4.4.1  什麼是對抗生成思想
    4.4.2  模型結構
    4.4.3  判別器
    4.4.4  生成器
    4.4.5  訓練流程
    4.4.6  損失函數
    4.4.7  小結
  4.5  擴散模型
    4.5.1  模型對比
    4.5.2  基本思想
    4.5.3  前向過程
    4.5.4  逆向過程
    4.5.5  損失函數
    4.5.6  損失函數的參數化
    4.5.7  訓練流程
    4.5.8  小結
  4.6  深度生成模型項目實戰
    4.6.1  代碼實現
    4.6.2  VAE模型
    4.6.3  GAN模型

    4.6.4  小結
第5章  電腦視覺:讓智慧可見
  5.1  自定義數據載入
    5.1.1  數據載入
    5.1.2  數據準備
    5.1.3  ImageFolder方法
    5.1.4  自定義數據集示例
    5.1.5  自定義數據集示例
    5.1.6  小結
  5.2  圖像數據增強
    5.2.1  數據增強簡介
    5.2.2  代碼準備
    5.2.3  常見圖像數據增強方法
    5.2.4  小結
  5.3  遷移學習
    5.3.1  遷移學習簡介
    5.3.2  ResNet預訓練模型
    5.3.3  ViT預訓練模型
    5.3.4  小結
  5.4  經典電腦視覺數據集
    5.4.1  數據集簡介
    5.4.2  小結
  5.5  項目實戰:貓狗大戰
    5.5.1  項目簡介
    5.5.2  數據準備
    5.5.3  模型訓練
    5.5.4  模型預測
    5.5.5  小結
第6章  自然語言處理:人機交互懂你所說
  6.1  詞嵌入和Word2Vec
    6.1.1  獨熱編碼
    6.1.2  Word2Vec
    6.1.3  Gensim代碼實現
    6.1.4  小結
  6.2  詞義搜索和句義表示
    6.2.1  文本搜索方法
    6.2.2  正則搜索
    6.2.3  詞義搜索
    6.2.4  距離計算方法
    6.2.5  句子向量
    6.2.6  代碼實現
    6.2.7  常見應用
    6.2.8  小結
  6.3  預訓練模型
    6.3.1  預訓練和遷移學習
    6.3.2  遷移學習族譜
    6.3.3  大語言模型
    6.3.4  LLM進化方向
    6.3.5  BERT系列進化
    6.3.6  GPT系列進化

    6.3.7  多模態模型
    6.3.8  存在的問題
    6.3.9  小結
  6.4  Hugging Face庫介紹
    6.4.1  核心庫
    6.4.2  官網介紹
    6.4.3  代碼調用
    6.4.4  小結
  6.5  NLP數據集
    6.5.1  預訓練數據集
    6.5.2  下游任務數據集
    6.5.3  數據集使用
    6.5.4  小結
  6.6  項目實戰:電影評論情感分析
    6.6.1  Pipeline
    6.6.2  模型實戰
    6.6.3  直接微調
    6.6.4  小結
第7章  多模態生成式人工智慧:引領智能新時代
  7.1  CLIP模型
    7.1.1  電腦視覺研究新範式
    7.1.2  對比學習預訓練
    7.1.3  圖像編碼器
    7.1.4  文本編碼器
    7.1.5  數據收集
    7.1.6  圖像分類
    7.1.7  模型訓練和優缺點分析
    7.1.8  小結
  7.2  DALL·E系列模型
    7.2.1  初代模型結構
    7.2.2  dVAE模塊
    7.2.3  Transformer模塊
    7.2.4  圖像生成過程
    7.2.5  DALL·E 2模型結構
    7.2.6  CLIP模塊
    7.2.7  prior模塊
    7.2.8  decoder模塊
    7.2.9  DALL·E 2推理過程
    7.2.10  模型效果
    7.2.11  局限分析
    7.2.12  小結
  7.3  InstructGPT模型
    7.3.1  GPT系列回顧
    7.3.2  指示學習和提示學習
    7.3.3  人工反饋強化學習
    7.3.4  訓練流程
    7.3.5  數據集採集
    7.3.6  監督微調
    7.3.7  獎勵模型
    7.3.8  強化學習

    7.3.9  優缺點分析
    7.3.10  小結
  7.4  深度學習最新發展趨勢分析
    7.4.1  趨勢1:多模態融合
    7.4.2  趨勢2:AIGC大爆發
    7.4.3  趨勢3:大小模型分化
    7.4.4  趨勢4:概率分佈模型的大發展
    7.4.5  趨勢5:深度強化學習的春天
    7.4.6  更多展望
  7.5  下一步學習的建議
    7.5.1  動手實踐
    7.5.2  PyTorch官方文檔和課程
    7.5.3  推薦網站
    7.5.4  多讀論文
    7.5.5  關於強化學習
    7.5.6  繼續加油

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032