幫助中心 | 我的帳號 | 關於我們

深入解析Transformer架構/AI大模型技術叢書

  • 作者:呂陽//王韻涵|責編:李佳伶
  • 出版社:化學工業
  • ISBN:9787122490315
  • 出版日期:2026/02/01
  • 裝幀:平裝
  • 頁數:135
人民幣:RMB 68 元      售價:
放入購物車
加入收藏夾

內容大鋼
    《深入解析Transformer架構》致力於系統地解析Transformer模型的核心原理和應用前景。作為「AI大模型技術叢書」的開篇之作,本書從Transformer的起源講起,分析了模型設計背後的挑戰及創新點,包括注意力機制、位置編碼、多頭注意力等核心技術。書中深入探討了Transformer在自然語言處理和電腦視覺等領域的實際應用,展示了其在複雜任務中的顯著優勢和擴展潛力。通過清晰的理論解析與豐富的應用案例,本書為理解和使用Transformer模型的學習者提供了全面的指南,適合對Transformer模型感興趣的各類讀者學習使用。

作者介紹
呂陽//王韻涵|責編:李佳伶
    呂陽:北京工商大學教授,入選斯坦福大學2019-2024年度全球2%高被引學者及ESI同期高被引學者。作為IEEE高級會員,他深耕人工智慧、量子金融系統、區塊鏈應用、圖分析信息學及數字法理學等領域,展現了卓越的學術影響力。同時,他還擔任《Financial Innovation》等知名期刊的特約編輯,專註于工業4.0、區塊鏈、人工智慧、物聯網安全及企業數字化轉型等前沿研究。

目錄
第一章  Transformer模型架構概覽
  一、Transformer的起源
  二、Transformer的設計哲學
  三、Transformer的基本組件
第二章  注意力機制
  一、引言
  二、注意力機制的基本概念
  三、自注意力機制的工作原理
  四、多頭注意力機制
  五、稀疏注意力機制
  六、注意力機制在Transformer中的應用
第三章  位置編碼
  一、初步理解位置編碼
  二、位置編碼的工作原理
  三、位置編碼的創新與改進
第四章  編碼器與解碼器
  一、編碼器和解碼器概覽
  二、編碼器的結構與功能
  三、解碼器的結構與功能
  四、編碼器-解碼器架構的實際應用
第五章  殘差連接和層標準化
  一、深層網路的挑戰與優化
  二、殘差連接的工作原理與作用
  三、層標準化的工作原理與作用
  四、殘差連接和層標準化的協同作用
  五、殘差連接與層標準化在實際應用中的優化與改進
第六章  預訓練與微調
  一、引言
  二、預訓練語言模型的概念
  三、微調的概念
  四、預訓練與微調的實際應用
  五、模型效率的優化
  六、未來展望
第七章  Transformer的變體
  一、為何需要Transformer的變體
  二、BERT模型
  三、GPT模型
  四、T5模型
  五、其他重要變體:RoBERTa、ALBERT、XLNet
第八章  模型優化與訓練技巧
  一、Transformer模型的訓練挑戰
  二、參數初始化
  三、學習率調度與優化器選擇
  四、正則化策略
  五、梯度裁剪
  六、混合精度訓練與分散式訓練
  七、數據處理與數據增強
第九章  實際應用案例
  一、Transformer模型如何改變NLP任務
  二、文本分類中的Transformer應用——情感分析

  三、序列標注任務中的Transformer應用——命名實體識別
  四、序列到序列任務中的Transformer應用——機器翻譯
  五、文本生成任務中的Transformer應用——自動文本摘要
結語:探索未來語言智能的無限可能

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032