幫助中心 | 我的帳號 | 關於我們

擴散模型從原理到實戰

  • 作者:編者:李忻瑋//蘇步升//徐浩然//余海銘|責編:秦健
  • 出版社:人民郵電
  • ISBN:9787115618870
  • 出版日期:2023/08/01
  • 裝幀:平裝
  • 頁數:205
人民幣:RMB 79.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    AIGC的應用領域日益廣泛,而在圖像生成領域,擴散模型則是AIGC技術的一個重要應用。本書以擴散模型理論知識為切入點,由淺入深地介紹了擴散模型的相關知識,並以大量生動有趣的實戰案例幫助讀者理解擴散模型的相關細節。全書共8章,詳細介紹了擴散模型的原理,以及擴散模型退化、採樣、DDIM反轉等重要概念與方法,此外還介紹了Stable Diffusion、ControlNet與音頻擴散模型等內容。最後,附錄提供由擴散模型生成的高質量圖像集以及Hugging Face社區的相關資源。
    本書既適合所有對擴散模型感興趣的AI研究人員、相關科研人員以及在工作中有繪圖需求的從業人員閱讀,也可以作為電腦等相關專業學生的參考書。

作者介紹
編者:李忻瑋//蘇步升//徐浩然//余海銘|責編:秦健

目錄
第1章  擴散模型簡介
  1.1  擴散模型的原理
    1.1.1  生成模型
    1.1.2  擴散過程
  1.2  擴散模型的發展
    1.2.1  開始擴散:基礎擴散模型的提出與改進
    1.2.2  加速生成:採樣器
    1.2.3  刷新紀錄:基於顯式分類器引導的擴散模型
    1.2.4  引爆網路:基於CLIP的多模態圖像生成
    1.2.5  再次「出圈」:大模型的「再學習」方法——DreamBooth、LoRA和ControlNet
    1.2.6  開啟AI作畫時代:眾多商業公司提出成熟的圖像生成解決方案
  1.3  擴散模型的應用
    1.3.1  電腦視覺
    1.3.2  時序數據預測
    1.3.3  自然語言
    1.3.4  基於文本的多模態
    1.3.5  AI基礎科學
第2章  Hugging Face簡介
  2.1  Hugging Face核心功能介紹
  2.2  Hugging Face開源庫
  2.3  Gradio工具介紹
第3章  從零開始搭建擴散模型
  3.1  環境準備
    3.1.1  環境的創建與導入
    3.1.2  數據集測試
  3.2  擴散模型之退化過程
  3.3  擴散模型之訓練
    3.3.1  UNet網路
    3.3.2  開始訓練模型
  3.4  擴散模型之採樣過程
    3.4.1  採樣過程
    3.4.2  與DDPM的區別
    3.4.3  UNet2DModel模型
  3.5  擴散模型之退化過程示例
    3.5.1  退化過程
    3.5.2  最終的訓練目標
  3.6  拓展知識
    3.6.1  時間步的調節
    3.6.2  採樣(取樣)的關鍵問題
  3.7  本章小結
第4章  Diffusers實戰
  4.1  環境準備
    4.1.1  安裝Diffusers庫
    4.1.2  DreamBooth
    4.1.3  Diffusers核心API
  4.2  實戰:生成美麗的蝴蝶圖像
    4.2.1  下載蝴蝶圖像集
    4.2.2  擴散模型之調度器
    4.2.3  定義擴散模型
    4.2.4  創建擴散模型訓練循環

    4.2.5  圖像的生成
  4.3  拓展知識
    4.3.1  將模型上傳到Hugging Face Hub
    4.3.2  使用Accelerate庫擴大訓練模型的規模
  4.4  本章小結
第5章  微調和引導
  5.1  環境準備
  5.2  載入一個預訓練過的管線
  5.3  DDIM——更快的採樣過程
  5.4  擴散模型之微調
    5.4.1  實戰:微調
    5.4.2  使用一個最小化示常式序來微調模型
    5.4.3  保存和載入微調過的管線
  5.5  擴散模型之引導
    5.5.1  實戰:引導
    5.5.2  CLIP引導
  5.6  分享你的自定義採樣訓練
  5.7  實戰:創建一個類別條件擴散模型
    5.7.1  配置和數據準備
    5.7.2  創建一個以類別為條件的UNet模型
    5.7.3  訓練和採樣
  5.8  本章小結
第6章  Stable Diffusion
  6.1  基本概念
    6.1.1  隱式擴散
    6.1.2  以文本為生成條件
    6.1.3  無分類器引導
    6.1.4  其他類型的條件生成模型:Img2Img、Inpainting與Depth2Img模型
    6.1.5  使用DreamBooth進行微調
  6.2  環境準備
  6.3  從文本生成圖像
  6.4  Stable Diffusion Pipeline
    6.4.1  可變分自編碼器
    6.4.2  分詞器和文本編碼器
    6.4.3  UNet
    6.4.4  調度器
    6.4.5  DIY採樣循環
  6.5  其他管線介紹
    6.5.1  Img2Img
    6.5.2  Inpainting
    6.5.3  Depth2Image
  6.6  本章小結
第7章  DDIM反轉
  7.1  實戰:反轉
    7.1.1  配置
    7.1.2  載入一個預訓練過的管線
    7.1.3  DDIM採樣
    7.1.4  反轉
  7.2  組合封裝
  7.3  ControlNet的結構與訓練過程

  7.4  ControlNet示例
    7.4.1  ControlNet與Canny Edge
    7.4.2  ControlNet與M-LSD Lines
    7.4.3  ControlNet與HED Boundary
    7.4.4  ControlNet與塗鴉畫
    7.4.5  ControlNet與人體關鍵點
    7.4.6  ControlNet與語義分割
  7.5  ControlNet實戰
  7.6  本章小結
第8章  音頻擴散模型
  8.1  實戰:音頻擴散模型
    8.1.1  設置與導入
    8.1.2  在預訓練的音頻擴散模型管線中進行採樣
    8.1.3  從音頻到頻譜的轉換
    8.1.4  微調管線
    8.1.5  訓練循環
  8.2  將模型上傳到Hugging Face Hub
  8.3  本章小結
附錄A  精美圖像集展示
附錄B  Hugging Face相關資源

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032