幫助中心 | 我的帳號 | 關於我們

Transformer原理解析及中文項目實踐(微課視頻版)/跟我一起學人工智慧

  • 作者:編者:沈志龍|責編:趙佳霓
  • 出版社:清華大學
  • ISBN:9787302696322
  • 出版日期:2025/08/01
  • 裝幀:平裝
  • 頁數:233
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書深入淺出地介紹深度學習中的序列模型及其發展歷程,重點講解Transformer架構及其變體的原理與實踐應用。全書共5章,旨在幫助讀者從理論基礎到實踐應用,全面掌握Transformer技術。
    第1章詳細介紹RNN和LSTM的原理、代碼實踐及存在的問題與挑戰。第2章全面剖析Transformer的核心思想、總體架構及各組成部分的實現方法。第3章從自定義代碼出發,詳細地講解詞嵌入、多頭注意力層、前饋網路層、編碼器層和解碼器層的構建方法,以及如何訓練Transformer模型。第4章介紹Transformer變體與進階部分。第5章介紹利用HuggingFace實踐Transformer,首先介紹HuggingFace社區和Transformers庫,然後通過實際應用案例,如文本分類、情感分類、命名實體識別等,展示了如何使用Transformers庫進行項目開發,最後講解模型微調的各種方法,以及Transformer的影響和未來展望。
    本書適合對深度學習、序列模型和Transformer感興趣的讀者,無論是初學者還是有一定基礎的開發者都能從中獲得豐富的理論知識和實踐經驗。同時,本書也可作為高等院校和培訓機構相關專業的教學參考書。

作者介紹
編者:沈志龍|責編:趙佳霓
    沈志龍     統計學碩士、AI演算法專家,擁有數學和統計學背景,在自然語言處理、數據分析、機器學習、深度學習等領域具有深厚的理論知識和實踐經驗。在文本分類、命名實體識別、文本生成等自然語言處理任務上具有豐富的實踐經驗,對Transformer技術應該具備的核心專業能力有深刻的理解。

目錄
第1章  引言
  1.1  深度學習與序列模型的進化
    1.1.1  RNN原理
    1.1.2  RNN代碼實踐
    1.1.3  RNN的問題與挑戰
    1.1.4  LSTM原理
    1.1.5  LSTM代碼實踐
    1.1.6  LSTM的問題與挑戰
  1.2  Transformer的誕生背景
    1.2.1  Seq2Seq模型
    1.2.2  Seq2Seq代碼實踐
    1.2.3  注意力機制的崛起
    1.2.4  注意力機制代碼解讀
    1.2.5  論文「Attention is All You Need」簡介
第2章  Transformer架構解析
  2.1  Transformer總覽
    2.1.1  Transformer的核心思想
    2.1.2  Transformer的總體架構
  2.2  Transformer的實現
    2.2.1  自注意力機制的原理和實現
    2.2.2  多頭注意力的原理和實現
    2.2.3  位置編碼的作用和實現
    2.2.4  前饋網路層
    2.2.5  殘差連接和層歸一化
    2.2.6  解碼器的結構和功能
第3章  訓練Transformer
  3.1  自定義Transformer代碼
    3.1.1  詞嵌入和位置編碼
    3.1.2  多頭注意力層
    3.1.3  前饋網路層
    3.1.4  編碼器層和解碼器層
    3.1.5  構建Transformer模型
    3.1.6  訓練Transformer模型
  3.2  實踐訓練
    3.2.1  數據準備
    3.2.2  模型定義及訓練
    3.2.3  模型預測
第4章  Transformer變體與進階
  4.1  BERT
    4.1.1  BERT架構與原理
    4.1.2  BERT訓練過程解析
  4.2  GPT系列
    4.2.1  從GPT到GPT-4o
    4.2.2  GPT訓練過程解析
  4.3  其他變體
    4.3.1  ALBERT
    4.3.2  RoBERTa
    4.3.3  T5
    4.3.4  知識蒸餾原理及實踐
第5章  利用Hugging Face實踐Transformer

  5.1  Hugging Face簡介
    5.1.1  社區與資源介紹
    5.1.2  Transformers庫概覽
  5.2  快速開始
    5.2.1  Transformers庫
    5.2.2  Datasets載入數據集
    5.2.3  Tokenizer文本處理
    5.2.4  預訓練模型的載入
    5.2.5  Evaluate評估
    5.2.6  Trainer訓練
  5.3  實際應用案例
    5.3.1  文本分類
    5.3.2  情感分類
    5.3.3  命名實體識別
    5.3.4  文本相似度
    5.3.5  機器閱讀理解
    5.3.6  文本摘要
    5.3.7  生成式對話機器人
  5.4  模型高效微調
    5.4.1  微調原理介紹
    5.4.2  Freeze微調原理及實踐
    5.4.3  Prompt-Tuning微調原理及實踐
    5.4.4  Prefix Tuning微調原理及實踐
    5.4.5  P-Tuning微調原理及實踐
    5.4.6  LoRA微調原理及實踐
    5.4.7  AdaLoRA微調原理及實踐
    5.4.8  QLoRA微調原理及實踐
  5.5  Transformer的影響
  5.6  未來展望

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032