多智能体机器人系统信息融合与协调
出版时间:
2015-08
版次:
1
ISBN:
9787030447623
定价:
75.00
装帧:
平装
开本:
32开
纸张:
其他
页数:
188页
正文语种:
简体中文
16人买过
-
《多智能体机器人系统信息融合与协调》提出了一种基于Markov对策的多Agent协调框架并给出了相应的算法。通过对多Agent环境的分析,在对策论框架下进行多Agent协调,重点研究了MAS中敌对平衡与协作平衡的多Agent学习算法。基于多Agent中竞争和合作的关系,设计了一种分层结构处理多Agent协调:利用零和Markov进行Agent群体之间的竞争与对抗,利用团队Markov对策完成Agent群体内部的协调与合作。机器人足球赛结果表明了本方法的可行性及优越性。 《智能科学技术著作丛书》序
前言
第1章绪论
1.1引言
1.2多机器人系统中的信息融合
1.2.1机器人传感器系统
1.2.2机器人多传感器信息融合
1.3多机器人协调与合作研究现状
1.4多Agent信息融合与协调的研究现状
1.4.1多Agent信息融合
1.4.2多Agent协调与合作
1.5机器人足球及其研究进展
1.5.1机器人足球的发展概况
1.5.2FIRA机器人足球比赛系统
1.5.3机器人足球的关键技术和研究热点
1.6本书的结构和内容安排
参考文献
第2章多Agent的信息融合模型与方法
2.1引言
2.2Agent与MAS的概念及特性
2.2.1Agent的由来及定义
2.2.2Agent的特性
2.2.3MAS的概念与特性
2.2.4MAS与复杂系统
2.2.5MAS与智能系统
2.3信息融合技术概述
2.3.1信息融合的概念与定义
2.3.2信息融合的模型
2.3.3信息融合应用与发展现状
2.4多Agent信息融合模型
2.4.1Agent体系结构
2.4.2MAS体系结构
2.4.3基于多Agent的信息融合模型
2.5小结
参考文献
第3章多Agent协调的学习与对策
3.1引言
3.2多Agent协调的理论与方法
3.2.1协调的基本概念
3.2.2MAS协调及其理论
3.3Agent的学习模型与方法
3.3.1强化学习
3.3.2Markov决策过程
3.3.3Q学习算法
3.4多Agent的协调模型
3.4.1黑板模型
3.4.2合同网
3.4.3通用部分全局规划
3.5多Agent协调的对策与学习方法
3.5.1Markov对策概述
3.5.2冲突博弈
3.5.3多Agent强化学习
3.6小结
参考文献
第4章基于证据推理的多Agent分布式决策
4.1引言
4.2证据推理理论
4.2.1概率的几种解释及其性质
4.2.2证据理论的数学基础
4.2.3证据推理的基本概念
4.2.4Dempster组合规则
4.2.5证据决策规则
4.2.6Dempster组合规则存在的问题
4.3Agent信息模型
4.3.1单支置信函数
4.3.2基于证据推理的Agent信息模型
4.4可传递置信模型
4.4.1可传递置信模型的基本结构
4.4.2辨识框架的粗分和细化
4.4.3Pignistic概率转换
4.5基于多Agent的分布式决策融合框架及算法
4.5.1系统框架
4.5.2融合中心
4.5.3决策中心
4.6仿真算例
4.6.1赛场状态信息
4.6.2对手的策略
4.7多Agent分布式决策融合策略
4.7.1异构融合
4.7.2可靠性分配
4.7.3融合处理
4.7.4在机器人足球中的应用
4.8小结
参考文献
第5章强化函数设计方法及其在学习系统的应用
5.1引言
5.2强化学习应用中的关键问题
5.2.1泛化方法
5.2.2探索与利用的权衡
5.2.3强化函数与算法结构设计
5.3强化学习的奖惩函数
5.4基于平均报酬模型的强化学习算法
5.4.1报酬模型
5.4.2最优策略
5.4.3基于平均报酬模型的强化学习主要算法
5.5一种基于知识的强化函数设计方法
5.5.1强化函数的基本设计思想
5.5.2基于知识的强化函数
5.5.3仿真实验
5.6小结
参考文献
第6章基于分布式强化学习的多Agent协调方法
6.1引言
6.2多Agent强化学习基本理论
6.2.1基于局部合作的Q学习
6.2.2基于区域合作的Q学习
6.2.3算法的收敛性
6.3多Agellt强化学习方法的特性
6.3.1多Agent强化学习理论及假设的不同
6.3.2多Agent强化学习模型及框架的差异
6.3.3多Agent强化学习内容的区别
6.3.4多Agent强化学习算法设计的迥异
6.4多Agent强化学习算法的分类与比较
6.4.1绝对合作型多Agent强化学习算法
6.4.2绝对竞争型多Agent强化学习算法
6.4.3混合型多Agent强化学习算法
6.4.4平衡型多Agent强化学习算法
6.4.5最佳响应型多Agent强化学习算法
6.4.6分析与比较
6.5MAS中的分布式强化学习模型及结构
6.5.1中央强化学习结构
6.5.2独立强化学习结构
6.5.3群体强化学习结构
6.5.4社会强化学习结构
6.6基于分布式强化学习的多Agent协调模型及算法
6.6.1协调级
6.6.2行为级
6.6.3强化信息的分配
6.6.4仿真实验
6.7小结
参考文献
第7章基于Markov对策的多Agent协调
7.1引言
7.2多Agent交互的协调与博弈分析
7.2.1多Agent协调与博弈的性质
7.2.2多Agent协调失败的处理
7.3多Agent冲突博弈强化学习模型
7.3.1多Agent冲突博弈
7.3.2最优策略
7.3.3基于后悔值的Q学习模型
7.4Nash-Q学习
7.5零和Marl~OV对策和团队Markov对策
7.5.1零和Markov对策
7.5.2团队Markov对策
7.6基于Markov对策的多Agent协调策略
7.6.1对策框架
7.6.2Tearn级对策
7.6.3Member级对策
7.6.4仿真实验
7.7小结
参考文献
第8章Agent技术在机器人智能控制系统的应用
8.1引言
8.2智能机器人系统应用研究
8.2.1概况
8.2.2传统研究方法的缺陷
8.2.3智能机器人系统的共性
8.3开放式机器人智能控制系统应用研究
8.3.1开放式控制系统的典型特征
8.3.2基于PC的开放式控制系统的实现
8.4多机器人系统应用研究
8.4.1多机器人队形控制
8.4.2机器人救援
8.4.3多机器人追捕问题
8.5总结与展望
8.5.1总结
8.5.2未来工作展望
参考文献
-
内容简介:
《多智能体机器人系统信息融合与协调》提出了一种基于Markov对策的多Agent协调框架并给出了相应的算法。通过对多Agent环境的分析,在对策论框架下进行多Agent协调,重点研究了MAS中敌对平衡与协作平衡的多Agent学习算法。基于多Agent中竞争和合作的关系,设计了一种分层结构处理多Agent协调:利用零和Markov进行Agent群体之间的竞争与对抗,利用团队Markov对策完成Agent群体内部的协调与合作。机器人足球赛结果表明了本方法的可行性及优越性。
-
目录:
《智能科学技术著作丛书》序
前言
第1章绪论
1.1引言
1.2多机器人系统中的信息融合
1.2.1机器人传感器系统
1.2.2机器人多传感器信息融合
1.3多机器人协调与合作研究现状
1.4多Agent信息融合与协调的研究现状
1.4.1多Agent信息融合
1.4.2多Agent协调与合作
1.5机器人足球及其研究进展
1.5.1机器人足球的发展概况
1.5.2FIRA机器人足球比赛系统
1.5.3机器人足球的关键技术和研究热点
1.6本书的结构和内容安排
参考文献
第2章多Agent的信息融合模型与方法
2.1引言
2.2Agent与MAS的概念及特性
2.2.1Agent的由来及定义
2.2.2Agent的特性
2.2.3MAS的概念与特性
2.2.4MAS与复杂系统
2.2.5MAS与智能系统
2.3信息融合技术概述
2.3.1信息融合的概念与定义
2.3.2信息融合的模型
2.3.3信息融合应用与发展现状
2.4多Agent信息融合模型
2.4.1Agent体系结构
2.4.2MAS体系结构
2.4.3基于多Agent的信息融合模型
2.5小结
参考文献
第3章多Agent协调的学习与对策
3.1引言
3.2多Agent协调的理论与方法
3.2.1协调的基本概念
3.2.2MAS协调及其理论
3.3Agent的学习模型与方法
3.3.1强化学习
3.3.2Markov决策过程
3.3.3Q学习算法
3.4多Agent的协调模型
3.4.1黑板模型
3.4.2合同网
3.4.3通用部分全局规划
3.5多Agent协调的对策与学习方法
3.5.1Markov对策概述
3.5.2冲突博弈
3.5.3多Agent强化学习
3.6小结
参考文献
第4章基于证据推理的多Agent分布式决策
4.1引言
4.2证据推理理论
4.2.1概率的几种解释及其性质
4.2.2证据理论的数学基础
4.2.3证据推理的基本概念
4.2.4Dempster组合规则
4.2.5证据决策规则
4.2.6Dempster组合规则存在的问题
4.3Agent信息模型
4.3.1单支置信函数
4.3.2基于证据推理的Agent信息模型
4.4可传递置信模型
4.4.1可传递置信模型的基本结构
4.4.2辨识框架的粗分和细化
4.4.3Pignistic概率转换
4.5基于多Agent的分布式决策融合框架及算法
4.5.1系统框架
4.5.2融合中心
4.5.3决策中心
4.6仿真算例
4.6.1赛场状态信息
4.6.2对手的策略
4.7多Agent分布式决策融合策略
4.7.1异构融合
4.7.2可靠性分配
4.7.3融合处理
4.7.4在机器人足球中的应用
4.8小结
参考文献
第5章强化函数设计方法及其在学习系统的应用
5.1引言
5.2强化学习应用中的关键问题
5.2.1泛化方法
5.2.2探索与利用的权衡
5.2.3强化函数与算法结构设计
5.3强化学习的奖惩函数
5.4基于平均报酬模型的强化学习算法
5.4.1报酬模型
5.4.2最优策略
5.4.3基于平均报酬模型的强化学习主要算法
5.5一种基于知识的强化函数设计方法
5.5.1强化函数的基本设计思想
5.5.2基于知识的强化函数
5.5.3仿真实验
5.6小结
参考文献
第6章基于分布式强化学习的多Agent协调方法
6.1引言
6.2多Agent强化学习基本理论
6.2.1基于局部合作的Q学习
6.2.2基于区域合作的Q学习
6.2.3算法的收敛性
6.3多Agellt强化学习方法的特性
6.3.1多Agent强化学习理论及假设的不同
6.3.2多Agent强化学习模型及框架的差异
6.3.3多Agent强化学习内容的区别
6.3.4多Agent强化学习算法设计的迥异
6.4多Agent强化学习算法的分类与比较
6.4.1绝对合作型多Agent强化学习算法
6.4.2绝对竞争型多Agent强化学习算法
6.4.3混合型多Agent强化学习算法
6.4.4平衡型多Agent强化学习算法
6.4.5最佳响应型多Agent强化学习算法
6.4.6分析与比较
6.5MAS中的分布式强化学习模型及结构
6.5.1中央强化学习结构
6.5.2独立强化学习结构
6.5.3群体强化学习结构
6.5.4社会强化学习结构
6.6基于分布式强化学习的多Agent协调模型及算法
6.6.1协调级
6.6.2行为级
6.6.3强化信息的分配
6.6.4仿真实验
6.7小结
参考文献
第7章基于Markov对策的多Agent协调
7.1引言
7.2多Agent交互的协调与博弈分析
7.2.1多Agent协调与博弈的性质
7.2.2多Agent协调失败的处理
7.3多Agent冲突博弈强化学习模型
7.3.1多Agent冲突博弈
7.3.2最优策略
7.3.3基于后悔值的Q学习模型
7.4Nash-Q学习
7.5零和Marl~OV对策和团队Markov对策
7.5.1零和Markov对策
7.5.2团队Markov对策
7.6基于Markov对策的多Agent协调策略
7.6.1对策框架
7.6.2Tearn级对策
7.6.3Member级对策
7.6.4仿真实验
7.7小结
参考文献
第8章Agent技术在机器人智能控制系统的应用
8.1引言
8.2智能机器人系统应用研究
8.2.1概况
8.2.2传统研究方法的缺陷
8.2.3智能机器人系统的共性
8.3开放式机器人智能控制系统应用研究
8.3.1开放式控制系统的典型特征
8.3.2基于PC的开放式控制系统的实现
8.4多机器人系统应用研究
8.4.1多机器人队形控制
8.4.2机器人救援
8.4.3多机器人追捕问题
8.5总结与展望
8.5.1总结
8.5.2未来工作展望
参考文献
查看详情
-
全新
北京市丰台区
平均发货26小时
成功完成率87.11%
-
全新
北京市朝阳区
平均发货15小时
成功完成率95.27%
-
九五品
江苏省无锡市
平均发货17小时
成功完成率80.78%
-
八五品
河北省衡水市
平均发货6小时
成功完成率97.07%
-
全新
四川省成都市
平均发货57小时
成功完成率82.15%
-
全新
天津市津南区
平均发货13小时
成功完成率85.35%
-
全新
北京市朝阳区
平均发货13小时
成功完成率96.04%
-
全新
江苏省南京市
平均发货7小时
成功完成率95.74%
-
九五品
上海市徐汇区
平均发货14小时
成功完成率89.2%
-
全新
北京市朝阳区
平均发货13小时
成功完成率96.04%
-
全新
-
全新
北京市房山区
平均发货32小时
成功完成率83.4%
-
全新
广东省广州市
平均发货35小时
成功完成率72.74%
-
全新
北京市朝阳区
平均发货15小时
成功完成率95.27%
-
全新
北京市朝阳区
平均发货15小时
成功完成率95.27%
-
全新
江苏省无锡市
平均发货21小时
成功完成率87.88%
-
全新
天津市西青区
平均发货14小时
成功完成率90.02%
-
全新
河北省保定市
平均发货19小时
成功完成率88.36%
-
全新
江苏省无锡市
平均发货15小时
成功完成率93.82%
-
全新
天津市西青区
平均发货14小时
成功完成率90.02%
-
全新
-
全新
-
多智能体机器人系统信息融合与协调
本店所售图书,保证正版新书,有个别图片和实书封面不一样,以实书封面为准,有需要确定的可以联系客服。我店不能开发票。当天下单第二天发货。
全新
四川省成都市
平均发货31小时
成功完成率84.41%
-
全新
江苏省无锡市
平均发货21小时
成功完成率87.88%
-
全新
河北省保定市
平均发货24小时
成功完成率90.45%
-
全新
北京市通州区
平均发货9小时
成功完成率87.61%
-
全新
北京市通州区
平均发货9小时
成功完成率87.61%
-
八五品
河南省鹤壁市
平均发货20小时
成功完成率90.87%
-
多智能体机器人系统信息融合与协调
买书,就上二手书海官方企业店,清仓处理,真实库存,特价正版,收藏店铺,优先发货! ps:下午三点之前的订单当天发货,之后明天发货,特殊情况除外。
八五品
河南省鹤壁市
平均发货23小时
成功完成率88.46%
-
八五品
湖南省长沙市
平均发货13小时
成功完成率91.53%
-
全新
江苏省南京市
平均发货7小时
成功完成率98.3%
-
全新
河北省保定市
平均发货26小时
成功完成率87.74%
-
全新
江苏省南京市
平均发货7小时
成功完成率98.3%
-
八五品
北京市通州区
平均发货12小时
成功完成率95.58%
-
全新
江苏省南京市
平均发货7小时
成功完成率95.74%
-
全新
四川省成都市
平均发货9小时
成功完成率96.6%
-
全新
江苏省南京市
平均发货7小时
成功完成率95.74%
-
全新
广东省广州市
平均发货18小时
成功完成率87.61%
-
全新
广东省广州市
平均发货24小时
成功完成率84.09%
-
全新
广东省广州市
平均发货24小时
成功完成率84.09%
-
全新
广东省广州市
平均发货18小时
成功完成率86.76%
-
全新
广东省广州市
平均发货18小时
成功完成率86.76%
-
全新
河北省保定市
平均发货22小时
成功完成率87.32%
-
全新
四川省成都市
平均发货23小时
成功完成率88.42%
-
全新
河北省保定市
平均发货21小时
成功完成率83.08%
-
全新
-
全新
江苏省无锡市
平均发货9小时
成功完成率94.27%
-
全新
河北省保定市
平均发货15小时
成功完成率90.73%
-
全新
天津市河东区
平均发货24小时
成功完成率90.2%
-
全新
江苏省无锡市
平均发货15小时
成功完成率93.82%