幫助中心 | 我的帳號 | 關於我們

BeamDojo原理與應用實踐(構建具身智能系統)

  • 作者:徐奇偉|責編:王金柱
  • 出版社:清華大學
  • ISBN:9787302702207
  • 出版日期:2025/10/01
  • 裝幀:平裝
  • 頁數:257
人民幣:RMB 109 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書圍繞具身智能背景下的BeamDojo技術體系展開,系統解析其在場景圖理解與機器人步態控制中的多維應用,內容覆蓋理論原理、系統架構、訓練機制、圖結構建模、LLM協同設計、應用開發流程等關鍵模塊,構建從基礎認知到實戰開發的一體化知識框架。本書共10章,前5章依次介紹BeamDojo的研究動機、強化學習核心理論、大語言模型結構、圖推理基礎及BeamDojo的模塊原理,為讀者打下系統性認知基礎;第6、7章深入剖析結構化推理與BeamDojo-LLM互聯機制,形成感知-推理-控制的完整閉環;第8章提供全流程部署與模擬訓練指南,針對硬體平台實際適配;最後兩章以場景圖建模與機器人步態任務為實例,展示從模型構建到行為控制的應用開發路徑。
    本書面向機器人研發人員、圖神經網路研究者、LLM工程實踐者及跨模態推理系統設計者,兼具理論深度與工程實用性,適用於研究機構的工程落地、前沿項目開發及具身智能系統教學場景。

作者介紹
徐奇偉|責編:王金柱
    徐奇偉,畢業於哈爾濱工業大學,博士。現就職于重慶大學,任電氣工程學院副教授。長期從事電氣工程領域的信息化及智能化方向的研究和應用,有20余年的從業經驗,能熟練應用各類科學計算與工程應用軟體。作為項目負責人,主持國家級、省部級及企業委託科研項目30余項,具有豐富的工程實踐經驗。在科技成果產業化方面,已研製出不同型號電力設備並應用在電氣行業中。

目錄
第1章  概述
  1.1  跨模態認知智能
    1.1.1  從感知驅動到認知驅動
    1.1.2  Neuro-Symbolic融合模型
    1.1.3  具身智能與行為推理
  1.2  傳統行為控制中的劣勢分析
    1.2.1  MPC與微分規劃:缺乏實時性
    1.2.2  基於軌跡規劃:缺乏穩定性
    1.2.3  高自由度約束下的動作空間稀疏性
  1.3  BeamDojo框架的提出
    1.3.1  Polygon足部建模
    1.3.2  稀疏足點獎勵的稀疏性問題
    1.3.3  高維動作空間的試錯學習
  1.4  BeamDojo與其他技術路線的比較
    1.4.1  Quadruped強化控制與人形控制差異
    1.4.2  主流Sim2Real模型對比
    1.4.3  與PIM、RMA等代表性方法的對比分析
  1.5  本章小結
第2章  強化學習原理基礎
  2.1  馬爾可夫決策過程
    2.1.1  狀態空間與動作空間定義
    2.1.2  轉移概率與折扣因子
    2.1.3  POMDP與部分可觀測性建模
  2.2  強化學習中的策略優化
    2.2.1  Policy Gradient與Actor-Critic架構
    2.2.2  GAE架構
    2.2.3  PPO機制
  2.3  獎勵函數設計與稀疏獎勵問題
    2.3.1  稠密與稀疏獎勵的權衡
    2.3.2  多維獎勵融合策略
    2.3.3  時間信用分配問題解析
  2.4  強化學習在具身控制中的應用
    2.4.1  雙值函數網路結構
    2.4.2  Curriculum Learning在環境中的設計
    2.4.3  Sim2Real中的Domain Randomization策略
  2.5  本章小結
第3章  大語言模型與BeamDojo融合應用
  3.1  LLM基本架構與預訓練機制
    3.1.1  Transformer結構回顧
    3.1.2  自回歸語言建模機制
    3.1.3  大規模預訓練語料與指令微調技術
  3.2  LLM中的知識對齊與上下文處理
    3.2.1  Prompt Engineering與Embedding Cache
    3.2.2  多輪上下文窗口的滑動機制
    3.2.3  Attention機制中的長序列建模優化
  3.3  多模態融合中的語言表示遷移
    3.3.1  Text-to-Graph嵌入映射方法
    3.3.2  多模態條件下的Representation Alignment
    3.3.3  LLM與視覺感知/圖推理模塊介面分析
  3.4  LLM在行為邏輯建模中的能力

    3.4.1  CoT推理結構
    3.4.2  ToT在策略規劃中的應用
    3.4.3  LLM強化反饋迴路(RLHF/CRAFT等)
  3.5  本章小結
第4章  圖結構知識建模與推理基礎
  4.1  圖神經網路原理
    4.1.1  圖的表示方法與鄰接矩陣
    4.1.2  GCN/GAT/GIN基本原理對比
    4.1.3  圖聚合操作中的權重傳播機制
  4.2  符號推理與結構邏輯表示
    4.2.1  一階邏輯與謂詞結構建模
    4.2.2  前向/後向鏈推理機制
  4.3  Scene Graph與程序圖的建模方法
    4.3.1  視覺場景圖構建流程
    4.3.2  Graph-Based Reasoning在視覺任務中的應用
  4.4  圖推理任務中的訓練策略
    4.4.1  圖表示學習損失函數設計
    4.4.2  異構圖與多類型邊的處理
    4.4.3  圖中的路徑選擇與狀態更新機制
  4.5  本章小結
第5章  BeamDojo框架原理詳解
  5.1  框架整體結構與模塊解構
    5.1.1  感知輸入:LiDAR建圖與本體觀測編碼
    5.1.2  策略輸出:足部關節控制與軌跡預測
    5.1.3  雙階段訓練結構解析
  5.2  Foothold Reward設計機制
    5.2.1  多點採樣下的接觸區域檢測
    5.2.2  稀疏區域懲罰函數設計
    5.2.3  連續可微獎勵設計的優勢分析
  5.3  雙價值函數網路結構
    5.3.1  價值函數解耦稀疏/稠密獎勵
    5.3.2  優勢值歸一化融合策略
    5.3.3  策略更新中的裁剪與偏移控制
  5.4  兩階段訓練機制設計與實證
    5.4.1  軟動態約束訓練階段
    5.4.2  硬動態約束精調階段
  5.5  本章小結
第6章  結構化推理與策略調度系統
  6.1  狀態-動作-後效邏輯表示方法
    6.1.1  STRIPS與PDDL狀態建模
    6.1.2  動作前置條件與後效應用
  6.2  多步推理中的路徑搜索方法
    6.2.1  Beam Search在圖空間中的路徑控制
    6.2.2  BFS/DFS與策略選擇的融合
  6.3  局部-全局決策協同策略
    6.3.1  Low-Level Controller與High-Level Planner分離設計
    6.3.2  中間狀態預測與可行性修正
  6.4  本章小結
第7章  BeamDojo與LLM的互聯與協同
  7.1  Prompt-to-Graph介面協議

    7.1.1  指令解析生成控制目標圖譜
    7.1.2  圖結構嵌入的語言映射機制
    7.1.3  Prompt壓縮與Slot融合策略
  7.2  模型之間的介面集成機制
    7.2.1  Actor輸出與LLM指導策略的同步調度
    7.2.2  動作計劃補全與策略修復反饋
    7.2.3  高級邏輯推理模塊的API定義方式
  7.3  多智能體任務分工與上下文融合
    7.3.1  MCP上下文協調協議與BeamDojo兼容設計
    7.3.2  Token Buffer中的Agent消息傳遞機制
    7.3.3  LLM+BeamDojo的多模態嵌套控制方案
  7.4  Sim2LLM現實介面映射機制
    7.4.1  觀測-指令-動作的數據閉環結構
    7.4.2  LLM輔助策略調優的訓練管道
    7.4.3  強化學習數據反饋到大模型微調流程
  7.5  本章小結
第8章  BeamDojo逐模塊實現
  8.1  環境搭建與依賴配置
    8.1.1  PyTorch與Isaac Gym環境配置
    8.1.2  Unitree G1機器人模擬適配
    8.1.3  LiDAR建圖模塊部署
  8.2  模型訓練與數據記錄
    8.2.1  Foothold獎勵模塊自定義訓練
    8.2.2  多種Terrain配置的腳本管理
  8.3  策略評估與參數調試
    8.3.1  Foothold Error指標計算方法
    8.3.2  Terrain Difficulty Level的分級定義
    8.3.3  Success Rate與Traversal Rate動態對比分析
  8.4  Sim2Real部署流程與介面封裝
    8.4.1  LiDAR-Inertial Odometry融合定位實現
    8.4.2  Elevation Map構建與插值優化
    8.4.3  Deployment環境中的ROS/PD控制介面封裝
  8.5  本章小結
第9章  基於BeamDojo框架與Issac平台的場景圖建模實戰
  9.1  基於知識圖譜的路徑建模
    9.1.1  實體圖構建與子圖抽取
    9.1.2  Multi-Hop路徑規劃
    9.1.3  動態路徑回溯與答案置信計算
  9.2  BeamDojo驅動的推理式場景圖建模
    9.2.1  用行為邏輯重構問題理解流程
    9.2.2  Question-to-Graph的Prompt圖映射
    9.2.3  Reward-Based Search策略生成答案路徑
  9.3  多模態場景圖中的集成架構
    9.3.1  圖像-文本-語義聯動處理流程
    9.3.2  圖譜關係匹配中的LLM糾錯機制
    9.3.3  Answer Reasoning Trace的可解釋性輸出設計
  9.4  本章小結
第10章  基於Unitree G1平台的機器人步態決策演算法實戰
  10.1  場景圖理解任務
    10.1.1  實景圖轉場景圖的流程

    10.1.2  多目標間的關係約束建模
    10.1.3  圖結構約束下的推理路徑生成
  10.2  行為生成與機器人邏輯介面
    10.2.1  SceneGraph-to-Plan映射規則
    10.2.2  Relation-Aware動作規劃器實現
    10.2.3  動作約束圖與動作生成器融合機制
  10.3  BeamDojo在步態控制中的應用
    10.3.1  任務感知與高程圖動態注入
    10.3.2  自定義精細的足部獎勵函數
    10.3.3  在稀疏支撐環境下的穩定性保持策略
  10.4  綜合案例:從Scene Graph到任務執行
    10.4.1  場景圖理解、導航規劃與步態控制流程全鏈路實戰
    10.4.2  行為執行結果評估與誤差分析方法
    10.4.3  完整系統實現
  10.5  本章小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032