幫助中心 | 我的帳號 | 關於我們

PyTorch深度學習指南(序列與自然語言處理全彩印刷)

  • 作者:(巴西)丹尼爾·沃格特·戈多伊|責編:張淑謙//陳崇昱|譯者:趙春江
  • 出版社:機械工業
  • ISBN:9787111744597
  • 出版日期:2024/03/01
  • 裝幀:平裝
  • 頁數:310
人民幣:RMB 139 元      售價:
放入購物車
加入收藏夾

內容大鋼
    「PyTorch深度學習指南」叢書循序漸進地詳細講解了與深度學習相關的重要概念、演算法和模型,並著重展示了PyTorch是如何實現這些演算法和模型的。其共分三卷:編程基礎、電腦視覺、序列與自然語言處理。
    本書為該套叢書的第三卷:序列與自然語言處理。本書主要介紹了循環神經網路(RNN、GRU和LSTM)和一維卷積;Seq2Seq模型、注意力、自注意力、掩碼和位置編碼;Transformer、層歸一化和視覺Transformer(ViT);BERT、GPT-2、單詞嵌入和HuggingFace庫等內容。
    本書適用於對深度學習感興趣,並希望使用PyTorch實現深度學習的Python程序員閱讀學習。

作者介紹
(巴西)丹尼爾·沃格特·戈多伊|責編:張淑謙//陳崇昱|譯者:趙春江

目錄
前言
致謝
關於作者
譯者序
常見問題
  為什麼選擇PyTorch?
  為什麼選擇這套書?
  誰應該讀這套書?
  我需要知道什麼?
  如何閱讀這套書?
  下一步是什麼?
設置指南
  官方資料庫
  環境
    谷歌Colab
    Binder
    本地安裝
  繼續
第8章  序列
  劇透
  Jupyter Notebook
    導入
  序列
    數據生成
  循環神經網路(RNN)
    RNN單元
    RNN層
    形狀
    堆疊RNN
    雙向RNN
    正方形模型
    可視化模型
    我們能做得更好嗎?
  門控循環單元(GRU)
    GRU單元
    GRU層
    正方形模型Ⅱ——速成
    模型配置和訓練
    可視化模型
    我們能做得更好嗎?
  長短期記憶(LSTM)
    LSTM單元
    LSTM層
    正方形模型Ⅲ——巫師
    模型配置和訓練
    可視化隱藏狀態
  可變長度序列
    填充
    打包
    解包(至填充)

    打包(從填充)
    可變長度數據集
    數據準備
    正方形模型Ⅳ——打包
    模型配置和訓練
  一維卷積
    形狀
    多特徵或通道
    膨脹
    數據準備
    模型配置和訓練
    可視化模型
  歸納總結
    固定長度數據集
    可變長度數據集
    選擇一個合適的模型
    模型配置和訓練
  回顧
第9章(上):序列到序列
  劇透
  Jupyter Notebook
    導入
  序列到序列
    數據生成
  編碼器-解碼器架構
    編碼器
    解碼器
    編碼器+解碼器
    數據準備
    模型配置和訓練
    可視化預測
    我們能做得更好嗎?
  注意力
    「值」
    「鍵」和「查詢」
    計算上下文向量
    評分方法
    注意力分數
    縮放點積
    注意力機制
    源掩碼
    解碼器
    編碼器+解碼器+注意力機制
    模型配置和訓練
    可視化預測
    可視化注意力
    多頭注意力
第9章(下):序列到序列
  劇透
  自注意力

    編碼器
    交叉注意力
    解碼器
    編碼器+解碼器+自注意力機制
    模型配置和訓練
    可視化預測
    不再有序
  位置編碼(PE)
    編碼器+解碼器+位置編碼
    模型配置和訓練
    可視化預測
    可視化注意力
  歸納總結
    數據準備
    模型組裝
    編碼器+解碼器+位置編碼
    自注意力的「層」
    注意力頭
    模型配置和訓練
  回顧
第10章  轉換和轉出
  劇透
  Jupyter Notebook
    導入
  轉換和轉出
  狹義注意力
    分塊
    多頭注意力
  堆疊編碼器和解碼器
  包裹「子層」
  Transformer編碼器
  Transformer解碼器
  層歸一化
    批量與層
    我們的Seq2Seq問題
    投影或嵌入
  Transformer
    數據準備
    模型配置和訓練
    可視化預測
  PyTorch的Transformer
    模型配置和訓練
    可視化預測
  視覺Transformer
    數據生成和準備
    補丁
    特殊分類器詞元
    模型
    模型配置和訓練
  歸納總結

    數據準備
    模型組裝
    模型配置和訓練
  回顧
第11章  Down the Yellow Brick Rabbit Hole
  劇透
  Jupyter Notebook
    附加設置
    導入
  「掉進黃磚兔子洞(Down the Yellow Brick Rabbit Hole)」
  構建數據集
    句子詞元化
    HuggingFace的數據集
    載入數據集
  單詞詞元化
    辭彙表
    HuggingFace的詞元化器
  單詞嵌入之前
    獨熱(One-Hot)編碼(OHE)
    詞袋(BoW)
    語言模型
    N元(N-gram)
    連續詞袋(CBoW)
  單詞嵌入
    Word2Vec
    什麼是嵌入?
    預訓練的Word2Vec
    全局向量(GloVe)
    使用單詞嵌入
    模型Ⅰ——GloVE+分類器
    模型Ⅱ——GloVe+Transformer
  上下文單詞嵌入
    ELMo
    BERT
    文檔嵌入
    模型Ⅲ——預處理嵌入
  BERT
    詞元化
    輸入嵌入
    預訓練任務
    輸出
    模型Ⅳ——使用BERT進行分類
  使用HuggingFace進行微調
    序列分類(或回歸)
    詞元化數據集
    訓練器
    預測
    管道
    更多管道
  GPT-2

  歸納總結
    數據準備
    模型配置和訓練
    生成文本
  回顧
  謝謝您!

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032