您的位置: 专家智库 > >

国家自然科学基金(60643001)

作品数:5 被引量:14H指数:2
相关作者:陈启军张家奇肖云伟余满珍谭锋更多>>
相关机构:同济大学更多>>
发文基金:教育部“新世纪优秀人才支持计划”国家自然科学基金上海市教育发展基金会“曙光计划”项目更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 4篇中文期刊文章

领域

  • 4篇自动化与计算...

主题

  • 2篇奖赏
  • 2篇仿真
  • 1篇调度
  • 1篇调度策略
  • 1篇动态调度
  • 1篇对数函数
  • 1篇学习算法
  • 1篇遗传算法
  • 1篇指数函数
  • 1篇任务调度
  • 1篇任务调度策略
  • 1篇收敛速度
  • 1篇强化学习算法
  • 1篇进化
  • 1篇机器人
  • 1篇机器人控制
  • 1篇函数
  • 1篇仿真程序
  • 1篇仿真验证
  • 1篇负载平衡

机构

  • 3篇同济大学

作者

  • 3篇陈启军
  • 1篇余满珍
  • 1篇张家奇
  • 1篇肖云伟

传媒

  • 3篇同济大学学报...
  • 1篇系统仿真学报

年份

  • 4篇2007
5 条 记 录,以下是 1-4
排序方式:
基于行动分值的强化学习与奖赏优化被引量:2
2007年
针对强化学习算法收敛速度慢、奖赏函数的设计需要改进的问题,提出一种新的强化学习算法.新算法使用行动分值作为智能行为者选择动作的依据.行动分值比传统的状态值具有更高的灵活性,因此更容易针对行动分值设计更加优化的奖赏函数,提高学习的性能.以行动分值为基础,使用了指数函数和对数函数,动态确定奖赏值与折扣系数,加快行为者选择最优动作.从走迷宫的计算机仿真程序可以看出,新算法显著减少了行为者在收敛前尝试中执行的动作次数,提高了收敛速度.
陈启军肖云伟
学习对进化的影响研究及仿真验证被引量:10
2007年
研究了学习与进化的关系,特别是学习如何影响进化。基于Hinton和Nowlan在学习与进化研究领域的第一个计算模型,验证了学习能够指导进化。相对于Hinton和Nowlan较理想化的结果,得到了一个更加客观的结果。通过分析两个实验结果中需要学习来确定的基因所占比率不同,重新设计了系统新的适应度函数,证明了学习指导下进化的具体发展方向:进化向着完成这种学习能力的基因方向发展,学习到的性状最终按照达尔文的进化机制被遗传。
张家奇陈启军
关键词:进化遗传算法
基于行动分值的强化学习与奖赏优化被引量:1
2007年
针对强化学习算法收敛速度慢,奖赏函数的设计需要改进的问题,提出一种新的强化学习算法.新算法使用行动分值作为智能行为者选择动作的依据.以行动分值为基础,使用了指数函数和对数函数动态确定奖赏值与折扣系数。加快行为者选择最优动作.行动分值比传统的状态值具有更高的灵活性,因此更容易针对行动分值设计更加优化的奖赏函数,提高学习的性能.从走迷宫的计算机仿真程序可以看出,新算法显著减少了行为者在收敛前尝试中执行的动作次数,提高了收敛速度.
陈启军
关键词:强化学习算法收敛速度对数函数指数函数仿真程序
基于启发式群聚算法的机器人全局任务调度策略被引量:1
2007年
提出了一种基于启发式群聚算法的机器人全局任务调度策略,在任务划分阶段采用一种启发式群聚算法对随机划分的各子任务按能否使总的运行时间缩短进行各子任务间的聚合,以使各子任务粒度和相互之间的通讯量达到一种优化状态,并在此基础上对群聚之后的各子群任务采用集中式动态调度策略,在程序运行过程中实现各处理器的负载平衡,提高各处理器的利用率,缩短总的运行时间.在一个由5个DSP(digital signal processor)处理器组成的同构型松耦合MIMD(multi instruction multi data)并行处理平台上,对平面四自由度连杆机器人在关节锁定下的运动控制任务采用上述先随机划分,再聚合,最后集中式调度的方法进行了并行实时仿真实验,取得了满意的并行性能指标.
陈启军余满珍
关键词:机器人控制动态调度负载平衡
共1页<1>
聚类工具0