幫助中心 | 我的帳號 | 關於我們

谷歌JAX深度學習從零開始學(雙色印刷)/人工智慧技術叢書

  • 作者:王曉華|責編:夏毓彥
  • 出版社:清華大學
  • ISBN:9787302604365
  • 出版日期:2022/06/01
  • 裝幀:平裝
  • 頁數:244
人民幣:RMB 79 元      售價:
放入購物車
加入收藏夾

內容大鋼
    JAX是一個用於高性能數值計算的Python庫,專門為深度學習領域的高性能計算而設計。本書詳解JAX框架深度學習的相關知識,配套示例源碼、PPT課件、數據集和開發環境。
    本書共分為13章,內容包括JAX從零開始,一學就會的線性回歸、多層感知機與自動微分器,深度學習的理論基礎,XLA與JAX一般特性,JAX的高級特性,JAX的一些細節,JAX中的卷積,JAX與TensorFlow的比較與交互,遵循JAX函數基本規則下的自定義函數,JAX中的高級包。最後給出3個實戰案例:使用ResNet完成CIFAR100數據集分類,有趣的詞嵌入,生成對抗網路(GAN)。
    本書適合JAX框架初學者、深度學習初學者以及深度學習從業人員,也適合作為高等院校和培訓機構人工智慧相關專業的師生教學參考書。

作者介紹
王曉華|責編:夏毓彥

目錄
第1章  JAX從零開始
  1.1  JAX來了
    1.1.1  JAX是什麼
    1.1.2  為什麼是JAX
  1.2  JAX的安裝與使用
    1.2.1  Windows Subsystem for Linux的安裝
    1.2.2  JAX的安裝和驗證
    1.2.3  PyCharm的下載與安裝
    1.2.4  使用PyCharm和JAX
    1.2.5  JAX的Python代碼小練習:計算SeLU函數
  1.3  JAX實戰——MNIST手寫體的識別
    1.3.1  第一步:準備數據集
    1.3.2  第二步:模型的設計
    1.3.3  第三步:模型的訓練
  1.4  本章小結
第2章  一學就會的線性回點、一多層感知機與自動微分器
  2.1  多層感知機
    2.1.1  全連接層——多層感知機的隱藏層
    2.1.2  使用JAX實現一個全連接層
    2.1.3  更多功能的全連接函數
  2.2  JAX實戰——鶯尾花分類
    2.2.1  鶯尾花數據準備與分析
    2.2.2  模型分析——採用線性回歸實戰鶯尾花分類
    2.2.3  基於JAX的線性回歸模型的編寫
    2.2.4  多層感知機與神經網路
    2.2.5  基於JAX的激活函數、softmax函數與交叉熵函數
    2.2.6  基於多層感知機的鶯尾花分類實戰
  2.3  自動微分器
    2.3.1  什麼是微分器
    2.3.2  JAX中的自動微分
  2.4  本章小結
第3章  深度學習的理論那礎
  3.1  BP神經網路簡介
  3.2  BP神經網路兩個基礎演算法詳解
    3.2.1  最小二乘法詳解
    3.2.2  道士下山的故事——梯度下降演算法
    3.2.3  最小二乘法的梯度下降演算法以及JAX實現
  3.3  反饋神經網路反向傳播演算法介紹
    3.3.1  深度學習基礎
    3.3.2  鏈式求導法則
    3.3.3  反饋神經網路原理與公式推導
    3.3.4  反饋神經網路原理的激活函數
    3.3.5  反饋神經網路原理的Python實現
  3.4  本章小結
第4章  XLA與JAX一般特性
  4.1  JAX 與XLA
    4.1.1  XLA如何運行
    4.1.2  XLA如何工作
  4.2  JAX一般特性
    4.2.1  利用JIT加快程序運行

    4.2.2  自動微分器——grad函數
    4.2.3  自動向量化映射——vmap函數
  4.3  本章小結
第5章  JAX的高級特性
  5.1  JAX與NumPy
    5.1.1  像NumPy一樣運行的JAX
    5.1.2  JAX的底層實現lax
    5.1.3  並行化的JIT機制與不適合使用JIT的情景
    5.1.4  JIT的參數詳解
  5.2  JAX程序的編寫規範要求
    5.2.1  JAX函數必須要為純函數
    5.2.2  JAX中數組的規範操作
    5.2.3  JIT中的控制分支
    5.2.4  JAX中的if、while、for、scan函數
  5.3  本章小結
第6章  JAX的一些細節
  6.1  JAX中的數值計算
    6.1.1  JAX中的grad函數使用細節
    6.1.2  不要編寫帶有副作用的代碼——JAX與NumPy的差異
    6.1.3  一個簡單的線性回歸方程擬合
  6.2  JAX中的性能提高
    6.2.1  JIT的轉換過程
    6.2.2  JIT無法對非確定參數追蹤
    6.2.3  理解JAX中的預編譯與緩存
  6.3  JAX中的函數自動打包器——vmap
    6.3.1  剝洋蔥——對數據的手工打包
    6.3.2  剝甘藍——JAX中的自動向量化函數vmap
    6.3.3  JAX中高階導數的處理
  6.4  JAX中的結構體保存方法Pytrees
    6.4.1  Pytrees是什麼
    6.4.2  常見的pytree函數
    6.4.3  深度學習模型參數的控制(線性模型)
    6.4.4  深度學習模型參數的控制(非線性模型)
    6.4.5  自定義的Pytree節點
    6.4.6  JAX數值計算的運行機制
  6.5  本章小結
第7章  JAX中的卷積
  7.1  什麼是卷積
    7.1.1  卷積運算
    7.1.2  JAX中的一維卷積與多維卷積的計算
    7.1.3  JAX.lax中的一般卷積的計算與表示
  7.2  JAX實戰——基於VGG架構的MNIST數據集分類
    7.2.1  深度學習Visual Geometry Group(VGG)架構
    7.2.2  VGG中使用的組件介紹與實現
    7.2.3  基於VGG6的MNIST數據集分類實戰
  7.3  本章小結
第8章  JAX與TensorFlow的比敏與交互
  8.1基於TensorFlow的MNIST分類
  8.2  TensorFlow與JAX的交互
    8.2.1  基於JAX的TensorFlow Datasets數據集分類實戰

    8.2.2  TensorFlow Datasets數據集庫簡介
  8.3  本章小結
第9章  避循JAX函數基本規則下的自定義函數
  9.1  JAX函數的基本規則
    9.1.1  使用已有的原語
    9.1.2  自定義的JVP以及反向VJP
    9.1.3  進階jax.custom_jvp和jax.custom_vjp函數用法
  9.2  Jaxpr解釋器的使用
    9.2.1  Jaxpr tracer
    9.2.2  自定義的可以被Jaxpr跟蹤的函數
  9.3  JAX維度名稱的使用
    9.3.1  JAX的維度名稱
    9.3.2  自定義JAX中的向量Tensor
  9.4  本章小結
第10章  JAX中的高級包
  10.1  JAX中的包
    10.1.1  jax.numpy的使用
    10.1.2  jax.nn的使用
  10.2  jax.experimental包和jax.example_libraries的使用
    10.2.1  jax.experimental.sparse的使用
    10.2.2  jax.experimental.optimizers模塊的使用
    10.2.3  jax.experimental.stax的使用
  10.3  本章小結
第11章  JAX實戰——使用ResNet完成CIFAR100數據集分類
  11.1  ResNet基礎原理與程序設計基礎
    11.1.1  ResNet誕生的背景
    11.1.2  使用JAX中實現的部件——不要重複造輪子
    11.1.3  一些stax模塊中特有的類
  11.2  ResNet實戰——CIFAR100數據集分類
    11.2.1  CIFAR100數據集簡介
    11.2.2  ResNet殘差模塊的實現
    11.2.3  ResNet網路的實現
    11.2.4  使用ResNet對CIFAR100數據集進行分類
  11.3  本章小結
第12章  JAX實戰——有趣的詞嵌入
  12.1  文本數據處理
    12.1.1  數據集和數據清洗
    12.1.2  停用詞的使用
    12.1.3  詞向量訓練模型word2vec的使用
    12.1.4  文本主題的提取:基於TF-IDF
    12.1.5  文本主題的提取:基於TextRank
  12.2  更多的詞嵌入方法——FastText和預訓練詞向量
    12.2.1  FastText的原理與基礎演算法
    12.2.2  FastText訓練以及與JAX的協同使用
    12.2.3  使用其他預訓練參數嵌入矩陣(中文)
  12.3  針對文本的卷積神經網路模型——字元卷積
    12.3.1  字元(非單詞)文本的處理
    12.3.2  卷積神經網路文本分類模型的實現——convld(一維卷積)
  12.4  針對文本的卷積神經網路模型——詞卷積
    12.4.1  單詞的文本處理

    12.4.2  卷積神經網路文本分類模型的實現
  12.5  使用卷積對文本分類的補充內容
    12.5.1  中文的文本處理
    12.5.2  其他細節
  12.6  本章小結
第13章  JAX實戰——生成對抗網緒(GAN)
  13.1  GAN的工作原理詳解
    13.1.1  生成器與判別器共同構成了一個GAN
    13.1.2  GAN是怎麼工作的
  13.2  GAN的數學原理詳解
    13.2.1  GAN的損失函數
    13.2.2  生成器的產生分佈的數學原理——相對熵簡介
  13.3  JAX實戰——GAN網路
    13.3.1  生成對抗網路GAN的實現
    13.3.2  GAN的應用前景
  13.4  本章小結
附錄  Windows 11安裝GPU版本的JAX

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032