幫助中心 | 我的帳號 | 關於我們

多智能體機器人系統信息融合與協調/智能科學技術著作叢書

  • 作者:范波//張雷|責編:張海娜//高慧元|總主編:塗序彥
  • 出版社:科學
  • ISBN:9787030447623
  • 出版日期:2015/07/01
  • 裝幀:平裝
  • 頁數:172
人民幣:RMB 98 元      售價:
放入購物車
加入收藏夾

內容大鋼
    多機器人系統是當前機器人技術領域的一個研究熱點,具有多學科交叉融合的顯著特點。本書以多機器人系統為研究背景,結合多智能體系統的體系結構以及協調與合作技術,針對多機器人系統中的信息融合,對多機器人協調中的任務分配與規劃、對抗環境下的多機器人協調等問題進行了深入研究,為提高多機器人系統的信息融合與協調的技術水平、促進相關技術的發展提供了新的思路與理論依據。
    本書是作者進行創新研究成果的結晶。本書可供從事分散式人工智慧、多機器人系統、信息融合技術和智能系統研究、設計和應用的科技人員和高等院校師生閱讀和參考。

作者介紹
范波//張雷|責編:張海娜//高慧元|總主編:塗序彥

目錄
《智能科學技術著作叢書》序
前言
第1章  緒論
  1.1  引言
  1.2  多機器人系統中的信息融合
    1.2.1  機器人感測器系統
    1.2.2  機器人多感測器信息融合
  1.3  多機器人協調與合作研究現狀
  1.4  多Agent信息融合與協調的研究現狀
    1.4.1  多Agent信息融合
    1.4.2  多Agent協調與合作
  1.5  機器人足球及其研究進展
    1.5.1  機器人足球的發展概況
    1.5.2  FIRA機器人足球比賽系統
    1.5.3  機器人足球的關鍵技術和研究熱點
  1.6  本書的結構和內容安排
  參考文獻
第2章  多Agent的信息融合模型與方法
  2.1  引言
  2.2  Agent與MAS的概念及特性
    2.2.1  Agent的由來及定義
    2.2.2  Agent的特性
    2.2.3  MAS的概念與特性
    2.2.4  MAS與複雜系統
    2.2.5  MAS與智能系統
  2.3  信息融合技術概述
    2.3.1  信息融合的概念與定義
    2.3.2  信息融合的模型
    2.3.3  信息融合應用與發展現狀
  2.4  多Agent信息融合模型
    2.4.1  Agent體系結構
    2.4.2  MAS體系結構
    2.4.3  基於多Agent的信息融合模型
  2.5  小結
  參考文獻
第3章  多Agent協調的學習與對策
  3.1  引言
  3.2  多Agent協調的理論與方法
    3.2.1  協調的基本概念
    3.2.2  MAS協調及其理論
  3.3  Agent的學習模型與方法
    3.3.1  強化學習
    3.3.2  Markov決策過程
    3.3.3  Q學習演算法
  3.4  多Agent的協調模型
    3.4.1  黑板模型
    3.4.2  合同網
    3.4.3  通用部分全局規劃
  3.5  多Agent協調的對策與學習方法
    3.5.1  Markov對策概述

    3.5.2  衝突博弈
    3.5.3  多Agent強化學習
  3.6  小結
  參考文獻
第4章  基於證據推理的多Agent分散式決策
  4.1  引言
  4.2  證據推理理論
    4.2.1  概率的幾種解釋及其性質
    4.2.2  證據理論的數學基礎
    4.2.3  證據推理的基本概念
    4.2.4  Dempster組合規則
    4.2.5  證據決策規則
    4.2.6  Dempster組合規則存在的問題
  4.3  Agent信息模型
    4.3.1  單支置信函數
    4.3.2  基於證據推理的Agent信息模型
  4.4  可傳遞置信模型
    4.4.1  可傳遞置信模型的基本結構
    4.4.2  辨識框架的粗分和細化
    4.4.3  Pignistic概率轉換
  4.5  基於多Agent的分散式決策融合框架及演算法
    4.5.1  系統框架
    4.5.2  融合中心
    4.5.3  決策中心
  4.6  模擬算例
    4.6.1  賽場狀態信息
    4.6.2  對手的策略
  4.7  多Agent分散式決策融合策略
    4.7.1  異構融合
    4.7.2  可靠性分配
    4.7.3  融合處理
    4.7.4  在機器人足球中的應用
  4.8  小結
  參考文獻
第5章  強化函數設計方法及其在學習系統的應用
  5.1  引言
  5.2  強化學習應用中的關鍵問題
    5.2.1  泛化方法
    5.2.2  探索與利用的權衡
    5.2.3  強化函數與演算法結構設計
  5.3  強化學習的獎懲函數
  5.4  基於平均報酬模型的強化學習演算法
    5.4.1  報酬模型
    5.4.2  最優策略
    5.4.3  基於平均報酬模型的強化學習主要演算法
  5.5  一種基於知識的強化函數設計方法
    5.5.1  強化函數的基本設計思想
    5.5.2  基於知識的強化函數
    5.5.3  模擬實驗
  5.6  小結

  參考文獻
第6章  基於分散式強化學習的多Agent協調方法
  6.1  引言
  6.2  多Agent強化學習基本理論
    6.2.1  基於局部合作的Q學習
    6.2.2  基於區域合作的Q學習
    6.2.3  演算法的收斂性
  6.3  多Agellt強化學習方法的特性
    6.3.1  多Agent強化學習理論及假設的不同
    6.3.2  多Agent強化學習模型及框架的差異
    6.3.3  多Agent強化學習內容的區別
    6.3.4  多Agent強化學習演算法設計的迥異
  6.4  多Agent強化學習演算法的分類與比較
    6.4.1  絕對合作型多Agent強化學習演算法
    6.4.2  絕對競爭型多Agent強化學習演算法
    6.4.3  混合型多Agent強化學習演算法
    6.4.4  平衡型多Agent強化學習演算法
    6.4.5  最佳響應型多Agent強化學習演算法
    6.4.6  分析與比較
  6.5  MAS中的分散式強化學習模型及結構
    6.5.1  中央強化學習結構
    6.5.2  獨立強化學習結構
    6.5.3  群體強化學習結構
    6.5.4  社會強化學習結構
  6.6  基於分散式強化學習的多Agent協調模型及演算法
    6.6.1  協調級
    6.6.2  行為級
    6.6.3  強化信息的分配
    6.6.4  模擬實驗
  6.7  小結
  參考文獻
第7章  基於Markov對策的多Agent協調
  7.1  引言
  7.2  多Agent交互的協調與博弈分析
    7.2.1  多Agent協調與博弈的性質
    7.2.2  多Agent協調失敗的處理
  7.3  多Agent衝突博弈強化學習模型
    7.3.1  多Agent衝突博弈
    7.3.2  最優策略
    7.3.3  基於後悔值的Q學習模型
  7.4  Nash-Q學習
  7.5  零和Marl~OV對策和團隊Markov對策
    7.5.1  零和Markov對策
    7.5.2  團隊Markov對策
  7.6  基於Markov對策的多Agent協調策略
    7.6.1  對策框架
    7.6.2  Tearn級對策
    7.6.3  Member級對策
    7.6.4  模擬實驗
  7.7  小結

  參考文獻
第8章  Agent技術在機器人智能控制系統的應用
  8.1  引言
  8.2  智能機器人系統應用研究
    8.2.1  概況
    8.2.2  傳統研究方法的缺陷
    8.2.3  智能機器人系統的共性
  8.3  開放式機器人智能控制系統應用研究
    8.3.1  開放式控制系統的典型特徵
    8.3.2  基於PC的開放式控制系統的實現
  8.4  多機器人系統應用研究
    8.4.1  多機器人隊形控制
    8.4.2  機器人救援
    8.4.3  多機器人追捕問題
  8.5  總結與展望
    8.5.1  總結
    8.5.2  未來工作展望
  參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032