幫助中心 | 我的帳號 | 關於我們

大語言模型通識(新形態立體化雙色印刷普通高等教育人工智慧專業系列教材)

  • 作者:趙建勇//周蘇|責編:郝建偉
  • 出版社:機械工業
  • ISBN:9787111759843
  • 出版日期:2024/06/01
  • 裝幀:平裝
  • 頁數:240
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    隨著信息技術的發展,大語言模型已然成為自然語言處理領域的重要基石,並持續推動著人工智慧技術的進步和社會應用的拓展。學習語言模型課程不僅有利於個人專業成長,更能對社會進步和技術創新產生積極影響。人工智慧及其大語言模型技術,是每個高校學生甚至社會人所必須關注、學習和重視的知識與現實。
    本書介紹的大語言模型知識主要包括:概述、大模型基礎、大模型的架構、數據標注、大模型預訓練數據、大模型的開發組織、分散式訓練、提示工程與微調、強化學習方法、基於大模型的智能體、大模型應用框架、技術倫理與限制、大模型的評估和大模型的健康未來等。
    本書特色鮮明、易讀易學,適合高等院校、職業院校的人工智慧、信息技術相關專業學生學習,也適合對人工智慧以及大語言模型相關領域感興趣的讀者閱讀參考。

作者介紹
趙建勇//周蘇|責編:郝建偉

目錄
前言
課程教學進度表
第1章  概述
  1.1  人工智慧基礎
    1.1.1  人工智慧的定義
    1.1.2  人工智慧的實現途徑
    1.1.3  機器學習和深度學習
    1.1.4  監督學習與無監督學習
  1.2  大語言模型的定義
  1.3  大語言模型形成基礎
    1.3.1  Blockhead思維實驗
    1.3.2  大模型的歷史基礎
    1.3.3  基於Transformer模型
    1.3.4  大模型的學習能力
    1.3.5  大模型的世界模型問題
    1.3.6  文化知識傳遞和語言支持
  1.4  通用人工智慧
    1.4.1  什麼是通用人工智慧
    1.4.2  大模型與通用人工智慧
    1.4.3  人工智慧生成內容
  [作業]
  [實踐與思考]了解典型的開源大語言模型
第2章  大模型基礎
  2.1  什麼是語言模型
    2.1.1  語言模型的定義
    2.1.2  注意力機制
    2.1.3  開源還是閉源
  2.2  大模型發展三階段
    2.2.1  基礎模型階段
    2.2.2  他力探索階段
    2.2.3  突破發展階段
  2.3  Transformer模型
    2.3.1  Transformer過程
    2.3.2  Transformer結構
    2.3.3  Transformer模塊
  2.4  生成式預訓練語言模型GPT
  2.5  大模型的結構
    2.5.1  LLaMA的模型結構
    2.5.2  LLaMA的注意力機制
  [作業]
  [實踐與思考]基於ChatGPT的免費工具:ChatAI小組件
第3章  大模型的架構
  3.1  大模型生成原理
    3.1.1  上下文學習
    3.1.2  指令微調
    3.1.3  零樣本/少樣本
    3.1.4  深度學習架構
    3.1.5  訓練策略及優化技術
  3.2  多模態語言模型
    3.2.1  多模態指令微調

    3.2.2  多模態上下文學習
    3.2.3  多模態思維鏈
    3.2.4  大模型輔助視覺推理
  3.3  應用技術架構
    3.3.1  指令工程
    3.3.2  函數調用
    3.3.3  檢索增強生成
    3.3.4  微調
  ……
第4章  數據標注
第5章  大模型預訓練數據
第6章  大模型的開發組織
第7章  分散式訓練
第8章  提示工程與微調
第9章  強化學習方法
第10章  基於大模型的智能體
第11章  大模型應用框架
第12章  技術倫理與限制
第13章  大模型的評估
第14章  大模型的健康未來
附錄  作業參考答案
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032