幫助中心 | 我的帳號 | 關於我們

零基礎自學AI應用開發

  • 作者:李光毅|責編:楊海玲
  • 出版社:人民郵電
  • ISBN:9787115682604
  • 出版日期:2025/12/01
  • 裝幀:平裝
  • 頁數:318
人民幣:RMB 79.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書旨在用傳統前後端開發過程中開發者熟悉的辭彙與術語對AI應用開發的專業知識進行深入淺出的講解,使開發者能夠從0到1入門AI應用開發。本書不拘泥於講解單一編程語言、單一模型和單一框架,而是盡可能完整地展現不同技術方案的優劣、技術選型時的考量和技術生態的全貌。書中涵蓋當下多種熱門類型AI應用的開發,從OpenAI API調用到RAG開發,從MCP伺服器創建到智能體開發。本書的內容編排循序漸進,前半部分聚焦「入門」,通過控制代碼複雜度及詳細的基礎知識講解,幫助讀者快速熟悉AI應用開發中的概念與常見模式;後半部分聚焦「進階」,將向量資料庫、第三方雲服務等技術組件引入示例,並嘗試通過構建完整的端到端應用將知識點串起來。此外,本書不僅包含業務代碼,還涉及AI應用的調試、監控、部署乃至最佳實踐,力求帶給讀者可工作的上線代碼。
    本書非常適合想用AI提升產品競爭力的前後端開發者、需要進行快速概念驗證的技術經理與創業者,以及希望將大模型接入現有系統的架構師與運維工程師閱讀。讀者無須擁有與AI應用開發相關的經驗,無須掌握Python或者Node.js編程語言,只要具有編程基礎知識即可暢讀本書。

作者介紹
李光毅|責編:楊海玲
    李光毅,圖書《高性能響應式web開發實戰》和知乎專欄『前端技術漫遊指南J作者。曾就職于愛奇藝、百度、知乎等互聯網公司,目前就職于ThoughWorks,從事全棧開發相關工作。

目錄
第1章  理解模型
  1.1  如何學習「魔法」
  1.2  Teachable Machine
    1.2.1  打造自己的模型
    1.2.2  部署代碼
  1.3  線性模型
    1.3.1  機器學習是如何工作的
    1.3.2  代碼實現
  1.4  神經網路雛形
    1.4.1  使用代碼實現
    1.4.2  為什麼需要神經「網路」
第2章  環境配置與基礎語法
  2.1  配置Python環境
    2.1.1  安裝Python
    2.1.2  配置虛擬環境
    2.1.3  類庫管理
  2.2  Python快速入門
    2.2.1  運行Python腳本
    2.2.2  數據類型
    2.2.3  縮進
    2.2.4  函數的定義和使用
    2.2.5  模塊的使用
    2.2.6  推導式
    2.2.7  類型註解
  2.3  配置Node.js環境
    2.3.1  在macOS系統和Windows系統中安裝Node.js
    2.3.2  在Ubuntu系統中安裝Node.js
  2.4  Node.js快速入門
    2.4.1  運行Node.js腳本
    2.4.2  動態類型語言
    2.4.3  package.json文件
    2.4.4  Node.js模塊系統
    2.4.5  類庫管理
    2.4.6  非同步編程
  2.5  其他應知內容
    2.5.1  cURL
    2.5.2  YAML
第3章  製作一款音頻轉錄工具
  3.1  區分OpenAI、ChatGPT與大模型
  3.2  集成OpenAI SDK
    3.2.1  創建API密鑰
    3.2.2  使用API密鑰
    3.2.3  使用API密鑰的注意事項
  3.3  初試OpenAI SDK
    3.3.1  發送請求
    3.3.2  返回結果解析
    3.3.3  計算token數量
  3.4  通過REST風格的API調用OpenAI API
  3.5  使用OpenAI SDK轉錄音頻
    3.5.1  讀取音頻文件

    3.5.2  標記轉錄文字的時間戳
  3.6  安裝自己的Whisper模型
    3.6.1  在本地安裝Whisper模型
    3.6.2  以命令行的方式運行Whisper
    3.6.3  在代碼中使用Whisper模型
第4章  AI助手開發
  4.1  AI助手
    4.1.1  創建AI助手
    4.1.2  函數是如何工作的
    4.1.3  調用AI助手
    4.1.4  通過第三方獲取城市氣溫
  4.2  打造播客摘要生成助手
    4.2.1  什麼是播客摘要生成助手
    4.2.2  創建播客摘要生成助手
    4.2.3  響應OpenAI的流式返回
    4.2.4  使用助手
  4.3  創建HTTP伺服器
    4.3.1  引入Express.js
    4.3.2  實現文件上傳
    4.3.3  完善路由
    4.3.4  提升代碼的健壯性
  4.4  使用代碼管理AI助手
    4.4.1  引入GitHub Actions
    4.4.2  編寫工作流
    4.4.3  編寫部署腳本
    4.4.4  看懂工作流
  4.5  部署上線
    4.5.1  創建守護進程
    4.5.2  準備伺服器
    4.5.3  通過GitHub Actions部署上線
    4.5.4  驗證服務
第5章  使用Haystack開發AI應用
  5.1  重新認識框架
    5.1.1  為什麼需要框架
    5.1.2  何謂好的框架
    5.1.3  也許你不需要框架
  5.2  為什麼選擇Haystack
    5.2.1  為什麼不推薦LangChain
    5.2.2  其他框架
    5.2.3  迎接Haystack
  5.3  初試Haystack
    5.3.1  基本概念
    5.3.2  初試組件與流水線
    5.3.3  自定義組件
  5.4  使用Haystack重構播客助手
    5.4.1  使用Haystack進行重構
    5.4.2  使用Gemini替代GPT模型
  5.5  啟用Haystack日誌
  5.6  啟用Haystack追蹤
    5.6.1  啟用追蹤

    5.6.2  與OpenTelemetry集成
    5.6.3  與Langfuse集成
第6章  RAG應用開發
  6.1  初試RAG技術
    6.1.1  使用Chroma實現語義化搜索
    6.1.2  元數據過濾
    6.1.3  與OpenAI配合
  6.2  向量資料庫原理
    6.2.1  餘弦相似度
    6.2.2  文本嵌入
    6.2.3  對Chroma進行嵌入配置
  6.3  長文本處理
    6.3.1  分割數據
    6.3.2  固定大小的分塊策略
    6.3.3  基於文檔結構的分塊策略
    6.3.4  遞歸式分塊策略
  6.4  使用Haystack實現流水線
    6.4.1  索引流水線
    6.4.2  查詢流水線
    6.4.3  簡化流水線
  6.5  拓展流水線
    6.5.1  索引數據
    6.5.2  優化數據檢索
第7章  接入第三方AI服務
  7.1  Hugging Face
    7.1.1  註冊Hugging Face
    7.1.2  調用Hugging Face推理服務
    7.1.3  與Haystack集成
    7.1.4  Hugging Face的服務類型
  7.2  Together AI
    7.2.1  註冊Together AI服務
    7.2.2  訪問推理服務
    7.2.3  函數調用
  7.3  Pinecone
    7.3.1  註冊Pinecone
    7.3.2  使用Pinecone
  7.4  Cohere
    7.4.1  註冊Cohere
    7.4.2  調用Cohere推理服務
    7.4.3  在Haystack中使用Cohere模型
  7.5  Railway
    7.5.1  需要解決的問題
    7.5.2  使用Railway部署我們的服務
  7.6  博客存儲流水線
    7.6.1  下載文章
    7.6.2  組裝流水線
    7.6.3  部署服務
第8章  微調模型
  8.1  在OpenAI中進行微調
    8.1.1  準備訓練數據

    8.1.2  通過界面進行微調
  8.2  使用Google AI進行微調
    8.2.1  使用Vertex AI Studio進行微調
    8.2.2  通過API進行微調
第9章  智能體開發入門
  9.1  OpenAI智能體
    9.1.1  第一個簡單的智能體
    9.1.2  任務轉移
    9.1.3  調用工具
    9.1.4  借用智能體對播客摘要生成助手進行重構
  9.2  自定義智能體處理流程
  9.3  利用Cohere的Command模型開發智能體
    9.3.1  準備工作
    9.3.2  編寫智能體
  9.4  護欄
    9.4.1  輸入護欄
    9.4.2  輸出護欄
    9.4.3  第三方護欄
  9.5  模型上下文協議
    9.5.1  MCP架構
    9.5.2  MCP工具
    9.5.3  使用已有的MCP伺服器
第10章  使用LangGraph構建智能體
  10.1  一個簡單的LangGraph應用
    10.1.1  創建圖對象
    10.1.2  添加節點
    10.1.3  stream_mode
  10.2  在LangGraph中使用工具
    10.2.1  簡單的工具調用
    10.2.2  複雜的工具調用
  10.3  子圖機制
    10.3.1  簡單子圖
    10.3.2  參數不兼容的情況
    10.3.3  使用LangSmith對數據流進行追蹤
  10.4  任務轉移
    10.4.1  智能體間的任務轉移
    10.4.2  監督者模式
  10.5  一個複雜的圖
    10.5.1  在向量資料庫中搜索
    10.5.2  在網路上搜索
    10.5.3  連接圖
  10.6  添加前端界面
    10.6.1  LangGraph服務
    10.6.2  前端
  10.7  實現人機交互
    10.7.1  簡單的人機交互
    10.7.2  借助CopilotKit實現人機交互

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032