幫助中心 | 我的帳號 | 關於我們

動手構建大模型

  • 作者:(加)路易斯-弗朗索瓦·布沙爾//(英)路易·彼得斯|責編:武少波|譯者:孟二利//魯驍//劉春曉//王斌
  • 出版社:人民郵電
  • ISBN:9787115668967
  • 出版日期:2025/11/01
  • 裝幀:平裝
  • 頁數:330
人民幣:RMB 109.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書採用創新且實用的教學策略,巧妙融合理論基礎與實踐應用,深入剖析自然語言處理(Natural Language Processing,NLP)領域的新進展,以及大語言模型(Large Language Model,LLM)的原理。書中不僅系統闡述了LLM的理論基礎,還通過實際項目案例展示了如何將這些模型應用於構建RAG系統。本書遵循由淺入深的路徑,從LLM的基礎知識入手,詳細闡釋了模型的訓練流程,並深入探討了如何利用提示技術與模型進行高效交互。書中還重點介紹了兩個在業界得到廣泛認可的框架——LlamaIndex和LangChain,它們是開發RAG應用的強大工具。書中的項目案例不僅為讀者提供了寶貴的實踐經驗,也能夠加深讀者對相關概念的理解和應用。此外,書中進一步探討了包括智能體和微調在內的高級技術,這些技術能夠顯著提升問答系統的性能。
    本書既適合無人工智慧或NLP背景的讀者入門學習,也可作為人工智慧等專業本科生、研究生、博士后研究人員、講師及行業從業者的進階參考。

作者介紹
(加)路易斯-弗朗索瓦·布沙爾//(英)路易·彼得斯|責編:武少波|譯者:孟二利//魯驍//劉春曉//王斌

目錄
第1章  LLM簡介
  1.1  語言模型簡史
  1.2  什麼是LLM
  1.3  LLM的組成
    1.3.1  Transformer
    1.3.2  語言建模
    1.3.3  分詞
    1.3.4  嵌入
    1.3.5  訓練/微調
    1.3.6  預測
    1.3.7  上下文窗口
    1.3.8  規模法則
    1.3.9  提示詞
    1.3.10  LLM中的湧現能力及測試基準
    1.3.11  LLM簡史
    1.3.12  項目:使用LLM(GPT-3.5API)進行翻譯
    1.3.13  項目:通過小樣本學習來控制LLM的輸出
  1.4  本章小結
第2章  LLM架構和概況
  2.1  理解Transformer
    2.1.1  論文「Attention Is All You Need」
    2.1.2  架構實戰
  2.2  Transformer架構的設計選擇
    2.2.1  編碼器-解碼器架構
    2.2.2  僅編碼器架構
    2.2.3  僅解碼器架構
    2.2.4  Transformer架構的優化技術
  2.3  生成式預訓練Transformer(GPT)架構
    2.3.1  掩碼自注意力
    2.3.2  GPT的訓練過程
    2.3.3  MinGPT
  2.4  LMM簡介
    2.4.1  常見架構和訓練目標
    2.4.2  開源版本的Flamingo
    2.4.3  指令微調的LMM
    2.4.4  探索LLaVA——一個指令微調的LMM
    2.4.5  超越視覺和語言
  2.5  專有模型vs.開放模型vs.開源模型
    2.5.1  Cohere LLM
    2.5.2  OpenAI的GPT-3.5turbo、GPT-4o和GPT-4o mini
  ……
第3章  LLM實踐
第4章  提示技術簡介
第5章  RAG
第6章  LangChain和Llamalndex簡介
第7章  使用LangChain進行提示
第8章  索引、檢索與數據預處理
第9章  高級RAG
第10章  智能體
第11章  微調

第12章  部署與優化

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032