幫助中心 | 我的帳號 | 關於我們

大語言模型(技術實踐與場景應用)/前沿科技人工智慧系列

  • 作者:編者:黃河燕//遲澤聞//柏宇//楊毅哲|責編:牛平月
  • 出版社:電子工業
  • ISBN:9787121516139
  • 出版日期:2026/01/01
  • 裝幀:平裝
  • 頁數:280
人民幣:RMB 88 元      售價:
放入購物車
加入收藏夾

內容大鋼
    大語言模型作為人工智慧革命的核心驅動力,正深刻重構自然語言處理與多模態領域的技術範式。本書系統構建了從理論基石到產業實踐的全棧知識體系,深入解析語言模型演進脈絡與Transformer核心架構,剖析大規模訓練中的工程挑戰與優化方案,闡釋跨語言遷移能力的實現機制,並重點通過醫療、金融、法律等領域的真實案例,揭示模型定製化應用與場景落地的完整路徑。全書立足技術前沿,兼顧演算法深度與實踐創新,致力為人工智慧研究者、工程師與技術決策者提供兼具系統性與實用性的實踐指南。

作者介紹
編者:黃河燕//遲澤聞//柏宇//楊毅哲|責編:牛平月

目錄
第1章  大語言模型概況
  1.1  研究背景及意義
    1.1.1  研究背景
    1.1.2  研究意義
  1.2  基本概念及問題描述
    1.2.1  語言模型
    1.2.2  Transformer架構
    1.2.3  預訓練語言模型
    1.2.4  僅編碼器架構
    1.2.5  編碼器-解碼器架構
    1.2.6  僅解碼器架構
    1.2.7  微調與上下文學習
  1.3  典型方法與代表性系統
    1.3.1  統計語言模型
    1.3.2  循環神經網路語言模型
    1.3.3  基於Transformer架構的語言模型
    1.3.4  掩碼語言模型
    1.3.5  自回歸語言模型
    1.3.6  指令微調訓練
    1.3.7  基於人類反饋的強化學習訓練
  1.4  相關數據與評測指標
    1.4.1  Pile數據集
    1.4.2  ROOTS數據集
    1.4.3  RedPajama和SlimPajama數據集
    1.4.4  RefineWeb數據集
    1.4.5  CLUECorpus數據集
    1.4.6  WuDao數據集
    1.4.7  性能評測
  1.5  參考文獻
第2章  大語言模型的基礎理論
  2.1  Transformer架構
  2.2  詞表示
    2.2.1  位元組對編碼分詞
    2.2.2  單字語言模型分詞
  2.3  位置編碼
    2.3.1  絕對位置編碼
    2.3.2  相對位置編碼
  2.4  Transformer架構組成
    2.4.1  編碼器與解碼器
    2.4.2  多頭注意力機制
  2.5  大語言模型訓練
  2.6  語言模型應用
    2.6.1  自然語言理解
    2.6.2  上下文學習
    2.6.3  多模態
    2.6.4  智能體
  2.7  參考文獻
第3章  大語言模型架構與訓練技術
  3.1  大語言模型發展現狀
  3.2  大語言模型架構

    3.2.1  位置編碼
    3.2.2  歸一化
    3.2.3  注意力機制
    3.2.4  前饋神經網路
  3.3  大語言模型預訓練數據
    3.3.1  多源數據收集
    3.3.2  數據處理與過濾
    3.3.3  數據影響分析
  3.4  大語言模型訓練技術
    3.4.1  分散式訓練
    3.4.2  並行訓練策略分析
    3.4.3  DeepSpeed訓練實踐
    3.4.4  預訓練大語言模型評估實踐
  3.5  有監督下游任務指令微調
    3.5.1  指令微調數據
    3.5.2  有監督指令微調實踐與評估
  3.6  本章小結
  3.7  參考文獻
第4章  大語言模型的效率優化
  4.1  大語言模型的效率問題
    4.1.1  研究背景及意義
    4.1.2  本章問題描述及解決思路
  4.2  摘要場景下的大語言模型效率優化
    4.2.1  引言
    4.2.2  模型架構
    4.2.3  實驗驗證
  4.3  基於上下文壓縮的效率優化
    4.3.1  引言
    4.3.2  模型架構
    4.3.3  實驗驗證
  4.4  參考文獻
第5章  大語言模型跨語言遷移性能分析
  5.1  多語言模型預訓練任務分析
    5.1.1  概述
    5.1.2  多語言掩碼建模
    5.1.3  翻譯語言模型
  5.2  衡量語言模型的跨語言遷移能力
    5.2.1  引言
    5.2.2  傳統指標:跨語言遷移差距
    5.2.3  跨語言遷移性指標IGAP
    5.2.4  實驗與分析
    5.2.5  小結
  5.3  高資源語言無監督訓練對模型多語言表現的影響
    5.3.1  引言
    5.3.2  方法
    5.3.3  實驗驗證:上游知識遷移
    5.3.4  實驗驗證:下游知識遷移
  5.4  本章小結
  5.5  參考文獻
第6章  基於預訓練的跨語言遷移學習模型

  6.1  引言
  6.2  基於跨語言對比訓練的多語言模型
    6.2.1  概述
    6.2.2  方法
    6.2.3  實驗驗證
    6.2.4  分析與討論
    6.2.5  小結
  6.3  面向文本生成的跨語言遷移學習
    6.3.1  XNLG的預訓練任務
    6.3.2  XNLG的預訓練步驟
    6.3.3  在下游自然語言生成任務上微調
    6.3.4  問題生成的跨語言遷移
    6.3.5  文本摘要的跨語言遷移
    6.3.6  小結
  6.4  面向文本理解及生成的跨語言遷移學習
    6.4.1  概述
    6.4.2  多語言文本轉換
    6.4.3  MT6:基於翻譯句對的跨語言預訓練
    6.4.4  實驗驗證
    6.4.5  小結
  6.5  基於詞對齊監督的多語言模型
    6.5.1  方法
    6.5.2  實驗驗證
    6.5.3  小結
  6.6  參考文獻
第7章  基於大語言模型的跨語言文本摘要研究
  7.1  跨語言文本摘要任務簡介
    7.1.1  研究背景及意義
    7.1.2  本章問題描述及解決思路
  7.2  低資源場景下的跨語言文本摘要
    7.2.1  引言
    7.2.2  模型架構
    7.2.3  實驗驗證
  7.3  翻譯語料加持的跨語言文本摘要
    7.3.1  引言
    7.3.2  模型架構
    7.3.3  實驗驗證
  7.4  參考文獻
第8章  基於領域遷移的大語言模型場景應用
  8.1  大語言模型的基礎能力
  8.2  大語言模型在生物醫療領域的應用實例
    8.2.1  大語言模型在醫療領域的應用
    8.2.2  大語言模型在計算生物學的應用
  8.3  大語言模型在社會科學的應用實例
    8.3.1  大語言模型在法律領域的應用
    8.3.2  大語言模型在心理學的應用
    8.3.3  大語言模型在社會計算的應用
    8.3.4  大語言模型在金融領域的應用
  8.4  大語言模型在電腦領域的應用實例
    8.4.1  大語言模型在編程領域的應用

    8.4.2  大語言模型在軟體工程領域的應用
    8.4.3  大語言模型在智能體領域的應用
  8.5  大語言模型在學科發展與藝術創作領域的應用實例
    8.5.1  大語言模型在促進學科發展的應用
    8.5.2  大語言模型在藝術創作領域的應用
  8.6  大語言模型在法律和金融領域的應用實例
    8.6.1  大語言模型在法律領域的應用
    8.6.2  大語言模型在金融領域的應用
  8.7  本章小結
  8.8  參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032