您的位置: 专家智库 > >

李波

作品数:5 被引量:25H指数:3
供职机构:河南师范大学计算机与信息工程学院更多>>
发文基金:河南省科技攻关计划更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 5篇中文期刊文章

领域

  • 5篇自动化与计算...

主题

  • 2篇多AGENT
  • 2篇信誉值
  • 2篇智能体
  • 2篇多智能
  • 2篇多智能体
  • 2篇MULTI-...
  • 2篇博弈
  • 2篇惩罚机制
  • 1篇虚拟网
  • 1篇虚拟网格
  • 1篇虚拟现实
  • 1篇虚拟植物
  • 1篇演化博弈
  • 1篇蚁群
  • 1篇蚁群算法
  • 1篇智能体系统
  • 1篇势场
  • 1篇群算法
  • 1篇人工势场
  • 1篇网格

机构

  • 5篇河南师范大学

作者

  • 5篇李波
  • 4篇郑延斌
  • 2篇李娜
  • 2篇梁凯
  • 2篇安德宇
  • 1篇陶雪丽
  • 1篇郭凌云

传媒

  • 1篇计算机光盘软...
  • 1篇河南师范大学...
  • 1篇计算机工程与...
  • 1篇计算机应用
  • 1篇小型微型计算...

年份

  • 1篇2016
  • 4篇2015
5 条 记 录,以下是 1-5
排序方式:
基于分层强化学习及人工势场的多Agent路径规划方法被引量:14
2015年
针对路径规划算法收敛速度慢及效率低的问题,提出了一种基于分层强化学习及人工势场的多Agent路径规划算法。首先,将多Agent的运行环境虚拟为一个人工势能场,根据先验知识确定每点的势能值,它代表最优策略可获得的最大回报;其次,利用分层强化学习方法的无环境模型学习以及局部更新能力将策略更新过程限制在规模较小的局部空间或维度较低的高层空间上,提高学习算法的性能;最后,针对出租车问题在栅格环境中对所提算法进行了仿真实验。为了使算法贴近真实环境,增加算法的可移植性,在三维仿真环境中对该算法进行验证,实验结果表明该算法收敛速度快,收敛过程稳定。
郑延斌李波安德宇李娜
关键词:路径规划多智能体系统分层强化学习人工势场先验知识
基于演化博弈惩罚机制的多智能体协作稳定性研究被引量:3
2015年
针对复杂、动态环境中多Agent协作的稳定性问题,提出了一种基于博弈论及惩罚机制的协作方法,通过效用函数来选择最优策略,实现均衡协作;为了提高协作的稳定性与成功率,引入惩罚机制,通过不断调整惩罚系数来维护多Agent协作的稳定性,并在形成协作团队时,充分考虑参与协作的Agent的信誉值。仿真结果表明,该方法能有效地降低任务完成时间,避免Agent在动态协作中随意退出,提高协作效率及协作稳定性。
郑延斌段领玉李波梁凯
关键词:演化博弈惩罚机制信誉值MULTI-AGENT
基于蚁群算法的虚拟植物优化研究被引量:1
2016年
针对植物模型不符合光照原理且不体现黄金分割特征的问题,提出了一种基于蚁群觅食原理的蚁群优化算法.首先对Open L-System模拟的植物枝叶分布进行分析;然后,采用设计的蚁群优化算法对虚拟植物枝叶在趋光性的竞争问题上进行优化;最后,结合植物的黄金分割特征实验仿真出植物模型.相比于没有采用优化仿真算法的Open L-System虚拟植物,植物模型枝叶的空间结构较为合理,趋光性生长更加旺盛.理论分析和仿真实验结果均表明,蚁群优化算法在单体植物模拟方面有一定的实际应用意义.
郑延斌梁凯李波安德宇李娜
关键词:虚拟植物OPENL-系统黄金分割虚拟网格蚁群算法
基于博弈论及惩罚机制的多Agent协作控制算法被引量:2
2015年
针对协作过程中自利的Agent选择回报更高的任务去执行,导致当前任务不能正常执行的问题,提出一种基于博弈论及惩罚机制的协作控制方法.在形成协作时优先选择信誉值较高的Agent,在协作执行过程中利用惩罚机制来约束退出协作的Agent的行为.仿真结果表明,该算法能有效地避免Agent在协作中随意的退出,确保协作任务的顺利执行,提高协作成功率.
郑延斌陶雪丽段领玉李波
关键词:博弈论惩罚机制信誉值MULTI-AGENT
基于3ds Max和VR-Platform的虚拟场景漫游实现被引量:5
2015年
虚拟场景漫游技术能够逼真地模拟客观存在或不存在的场景,用户在虚拟场景中可以实时交互,产生身临其境的体验。随着计算机相关技术的进步,虚拟场景漫游技术日渐应用广泛,几乎遍及各个领域。本文介绍了应用3ds Max和VR-Platform技术实现虚拟场景漫游的方法,并应用该方法构建了我校虚拟校园和本市潞王陵景区。
郭凌云李波
关键词:虚拟现实场景漫游
共1页<1>
聚类工具0