韩学东 作品数:24 被引量:417 H指数:11 供职机构: 中国航天科工集团公司 更多>> 发文基金: 国家高技术研究发展计划 国家自然科学基金 国家科技支撑计划 更多>> 相关领域: 自动化与计算机技术 轻工技术与工程 电子电信 更多>>
基于人脸识别的无钥保险柜系统研究 被引量:5 2002年 针对钥匙是保险柜最不保险的根源 ,提出通过识别主人实时面部图像的方法来开启保险柜的新思想 .针对无钥保险柜系统高可靠性和实时性的特点 ,提出并实现了一种人脸识别方法 ,该方法将人脸的主分量特征与人脸的几何特征融合在一起 ,共同构成人脸的识别特征 .鉴于人脸识别问题的特殊性 ,将传统分类方法与人工神经网络方法结合起来 ,构造了一个混合分类器 ,从而极大地提高了识别率 .最后实现了一个无钥保险柜仿真实验系统 .该系统运行良好 ,效果令人满意 . 王书达 韩学东关键词:人脸识别 钥匙 基于人工神经网络的足球机器人分层学习研究 被引量:22 2001年 主要研究人工神经网络在机器人足球比赛中的应用。介绍了足球机器人使用BP网络学习基本动作和行为决策的分层学习模型,并讨论了对BP算法的诸多改进方法。结合BP网络和产生式系统,提出了一个混合动作选择器,并进行了实验,给出了实验结果。 洪炳熔 薄喜柱 韩学东关键词:足球机器人 人工神经网络 智能机器人 基于信息熵的D-S证据理论及其在传感器融合中的应用 被引量:12 2007年 从证据本身和证据之间的相互关系两个方面分析了证据的可信度及相应在融合过程中获得的权重,引入了证据信息熵的概念,并给出了从证据本身确定可信度的方法。为了从证据之间的相互关系考察证据的可信度,给出了描述证据间相互支持的模糊关系矩阵,并依此来影响各传感器对于融合数据的重要性。实验验证了所提方法的有效性和鲁棒性。 姚宝成 韩学东关键词:D-S证据理论 传感器融合 信息熵 一种多机器人协作控制方法 被引量:17 2004年 提出了一种基于Petri网模型的多个移动机器人协作控制方法 .该方法主要包括两个模块 :高层控制模块 (HLCM)和低层控制模块 (LLCM) .HLCM负责任务分配和再规划 ,LLCM实现单个机器人的控制逻辑 .利用可达树对Petri网模型中的死锁进行检测 ,并给出了消除死锁的方法 .仿真实验证明了该方法的有效性 . 孟伟 洪炳镕 韩学东关键词:多机器人系统 PETRI网模型 死锁 多机器人任意队形分布式控制研究 被引量:33 2003年 本文针对多智能体协作完成特定任务时难以在全自主控制的前提下协作形成任意队形和队形向量不易确定的问题 ,通过由各智能体自主简单的确定自己的队形向量 ,从理论上扩展基于队形向量的队形控制原理以生成任意队形 ,改进机器人的运动方式以提高收敛速度 ,提出一种快速收敛的机器人部队任意队形分布式控制算法 .为了解决智能体机器人之间的冲突问题 ,提出了一个通信协调模型 . 韩学东 洪炳熔 孟伟关键词:多机器人 分布式控制 智能体 战场环境下的DTN路由算法研究 被引量:4 2014年 为了提高专门用于战场的DTN路由算法效率并满足区分消息优先级的需要,通过对一些具有代表性的容迟容断网络路由算法的分析,结合战场实际,在部队整体作战性能和网络通信质量之间做出了合理权衡,提出了基于多级队列和改进的EZF(elliptical zone forwarding)策略的战场环境下DTN网络路由算法B-DTN(battlefield DTN),并在ONE仿真平台上进行了仿真。仿真结果表明,B-DTN在保证高优先级消息优先送达的前提下,投递率和整体传输时延相对于传统路由算法仍有较大改善。 谢凌杰 韩学东关键词:战场 强化学习在机器人足球比赛中的应用 被引量:34 2002年 机器人足球比赛是一个有趣并且复杂的新兴的人工智能研究领域 ,它是一个典型的多智能体系统。采用强化学习方法研究了机器人足球比赛中的足球机器人的动作选择问题 ,扩展了单个Agent的强化学习方法 ,提出了基于多Agents的强化学习方法 ,最后给出了实验结果。 孟伟 洪炳熔 韩学东关键词:机器人足球比赛 多智能体 人工智能 多月球车定位/决策网络 被引量:2 2004年 提出了多月球车协作的分布式定位 /决策网络 ,将模糊逻辑与强化学习相结合 ,完成月球车的行为决策实验 .仿真结果证明了该方法的有效性 . 孟伟 洪炳镕 韩学东关键词:模糊逻辑 基于场景匹配的移动机器人避障 被引量:1 2004年 研究环境未知情况下移动机器人的避障问题,提出一种基于模糊场景匹配的移动机器人避障方法.该方法对多种传感器的信息进行融合,生成当前环境的场景并与场景库中的场景进行匹配,利用匹配结果并通过模糊控制器得到机器人的运动参数,对机器人的避障进行控制.实验结果表明了该方法的正确性和有效性. 孟伟 洪炳镕 韩学东关键词:移动机器人 避障 传感器融合 模糊控制 基于多Agent的并行Q-学习算法 被引量:7 2006年 提出了一种多A gen t并行Q-学习算法.学习系统中存在多个A gen t,它们的学习环境、学习任务及自身功能均相同.在每个学习周期内,各个A gen t在各自独立的学习环境中进行学习,当一个学习周期结束后,对各个A gen t的学习结果进行融合,融合后的结果被所有的A gen t共享,并以此为基础进行下一个周期的学习.实验结果表明了该方法的可行性和有效性. 周浦城 洪炳镕 韩学东 郭耸关键词:Q-学习