您的位置: 专家智库 > >

教育部重点实验室基金(93K172012K04)

作品数:8 被引量:28H指数:4
相关作者:傅启明刘全孙洪坤伏玉琛于俊更多>>
相关机构:苏州大学吉林大学南京大学更多>>
发文基金:江苏省自然科学基金国家自然科学基金教育部重点实验室基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 8篇中文期刊文章

领域

  • 8篇自动化与计算...

主题

  • 2篇梯度下降
  • 2篇贝叶斯
  • 2篇DY
  • 1篇调度
  • 1篇迭代
  • 1篇迭代算法
  • 1篇行动者
  • 1篇智能调度
  • 1篇势函数
  • 1篇评论家
  • 1篇强化学习方法
  • 1篇自适
  • 1篇自适应
  • 1篇最小二乘
  • 1篇最小二乘法
  • 1篇拓扑
  • 1篇可扩展
  • 1篇可扩展性
  • 1篇扩展性
  • 1篇基于拓扑

机构

  • 8篇吉林大学
  • 8篇苏州大学
  • 1篇南京大学

作者

  • 8篇刘全
  • 8篇傅启明
  • 5篇孙洪坤
  • 2篇于俊
  • 2篇肖飞
  • 2篇高龙
  • 2篇伏玉琛
  • 1篇周鑫
  • 1篇李娇
  • 1篇陈桂兴
  • 1篇周谊成
  • 1篇荆玲
  • 1篇杨旭东
  • 1篇周小科
  • 1篇李瑾
  • 1篇朱斐
  • 1篇穆翔
  • 1篇黄蔚

传媒

  • 4篇通信学报
  • 3篇计算机研究与...
  • 1篇软件学报

年份

  • 2篇2014
  • 6篇2013
8 条 记 录,以下是 1-8
排序方式:
基于两层模糊划分的时间差分算法被引量:1
2013年
针对传统的基于查询表或函数逼近的Q值迭代算法在处理连续空间问题时收敛速度慢、且不易求解连续行为策略的问题,提出了一种基于两层模糊划分的在策略时间差分算法——DFP-OPTD,并从理论上分析其收敛性。算法中第一层模糊划分作用于状态空间,第二层模糊划分作用于动作空间,并结合两层模糊划分计算出Q值函数。根据所得的Q值函数,使用梯度下降方法更新模糊规则中的后件参数。将DFP-OPTD应用于经典强化学习问题中,实验结果表明,该算法有较好的收敛性能,且可以求解连续行为策略。
穆翔刘全傅启明孙洪坤周鑫
关键词:梯度下降
基于自适应势函数塑造奖赏机制的梯度下降Sarsa(λ)算法被引量:5
2013年
针对连续状态空间下的强化学习算法初始性能差及收敛速度慢的问题,提出利用自适应势函数塑造奖赏机制来改进强化学习算法。该机制通过额外的奖赏信号自适应地将模型知识传递给学习器,可以有效提高算法的初始性能及收敛速度。鉴于径向基函数(RBF)网络的优良性能及存在的问题,提出利用自适应归一化RBF(ANRBF)网络作为势函数来塑造奖赏。基于ANRBF网络提出了梯度下降(GD)版的强化学习算法——ANRBF-GD-Sarsa(λ)。从理论上分析了ANRBF-GD-Sarsa(λ)算法的收敛性,并通过实验验证了ANRBF-GD-Sarsa(λ)算法具有较好的初始性能及收敛速度。
肖飞刘全傅启明孙洪坤高龙
关键词:梯度下降势函数
基于优先级扫描Dyna结构的贝叶斯Q学习方法被引量:6
2013年
贝叶斯Q学习方法使用概率分布来描述Q值的不确定性,并结合Q值分布来选择动作,以达到探索与利用的平衡。然而贝叶斯Q学习存在着收敛速度慢且收敛精度低的问题。针对上述问题,提出一种基于优先级扫描Dyna结构的贝叶斯Q学习方法—Dyna-PS-BayesQL。该方法主要分为2部分:在学习部分,对环境的状态迁移函数及奖赏函数建模,并使用贝叶斯Q学习更新动作值函数的参数;在规划部分,基于建立的模型,使用优先级扫描方法和动态规划方法对动作值函数进行规划更新,以提高对历史经验信息的利用,从而提升方法收敛速度及收敛精度。将Dyna-PS-BayesQL应用于链问题和迷宫导航问题,实验结果表明,该方法能较好地平衡探索与利用,且具有较优的收敛速度及收敛精度。
于俊刘全傅启明孙洪坤陈桂兴
一种优先级扫描的Dyna结构优化算法被引量:2
2013年
不确定环境的时序决策问题是强化学习研究的主要内容之一,agent的目标是最大化其与环境交互过程中获得的累计奖赏值.直接学习方法寻找最优策略的算法收敛效率较差,而采用Dyna结构将学习与规划并行集成,可提高算法的收敛效率.为了进一步提高传统Dyna结构的收敛速度和收敛精度,提出了Dyna-PS算法,并在理论上证明了其收敛性.该算法在Dyna结构规划部分使用优先级扫描算法的思想,对优先级函数值高的状态优先更新,剔除了传统值迭代、策略迭代过程中不相关和无更新意义的状态更新,提升了规划的收敛效率,从而进一步提升了Dyna结构算法的性能.将此算法应用于一系列经典规划问题,实验结果表明,Dyna-PS算法有更快的收敛速度和更高的收敛精度,且对于状态空间的增长具有较强的鲁棒性.
孙洪坤刘全傅启明肖飞高龙
基于拓扑序列更新的值迭代算法被引量:1
2014年
提出一种基于拓扑序列更新的值迭代算法,利用状态之间的迁移关联信息,将任务模型的有向图分解为一系列规模较小的强连通分量,并依据拓扑序列对强连通分量进行更新。在经典规划问题Mountain Car和迷宫实验中的结果表明,算法的收敛速度更快,精度更高,且对状态空间的增长有较强的顽健性。
黄蔚刘全孙洪坤傅启明周小科
一种高斯过程的带参近似策略迭代算法被引量:4
2013年
在大规模状态空间或者连续状态空间中,将函数近似与强化学习相结合是当前机器学习领域的一个研究热点;同时,在学习过程中如何平衡探索和利用的问题更是强化学习领域的一个研究难点.针对大规模状态空间或者连续状态空间、确定环境问题中的探索和利用的平衡问题,提出了一种基于高斯过程的近似策略迭代算法.该算法利用高斯过程对带参值函数进行建模,结合生成模型,根据贝叶斯推理,求解值函数的后验分布.在学习过程中,根据值函数的概率分布,求解动作的信息价值增益,结合值函数的期望值,选择相应的动作.在一定程度上,该算法可以解决探索和利用的平衡问题,加快算法收敛.将该算法用于经典的Mountain Car问题,实验结果表明,该算法收敛速度较快,收敛精度较好.
傅启明刘全伏玉琛周谊成于俊
关键词:策略迭代高斯过程贝叶斯推理
一种用于连续动作空间的最小二乘行动者-评论家方法被引量:8
2014年
解决具有连续动作空间的问题是当前强化学习领域的一个研究热点和难点.在处理这类问题时,传统的强化学习算法通常利用先验信息对连续动作空间进行离散化处理,然后再求解最优策略.然而,在很多实际应用中,由于缺乏用于离散化处理的先验信息,算法效果会变差甚至算法失效.针对这类问题,提出了一种最小二乘行动者-评论家方法(least square actor-critic algorithm,LSAC),使用函数逼近器近似表示值函数及策略,利用最小二乘法在线动态求解近似值函数参数及近似策略参数,以近似值函数作为评论家指导近似策略参数的求解.将LSAC算法用于解决经典的具有连续动作空间的小车平衡杆问题和mountain car问题,并与Cacla(continuous actor-critic learning automaton)算法和eNAC(episodic natural actor-critic)算法进行比较.结果表明,LSAC算法能有效地解决连续动作空间问题,并具有较优的执行性能.
朱斐刘全傅启明伏玉琛
关键词:最小二乘法MOUNTAIN
一种基于智能调度的可扩展并行强化学习方法被引量:3
2013年
针对强化学习在大状态空间或连续状态空间中存在的"维数灾"问题,提出一种基于智能调度的可扩展并行强化学习方法——IS-SRL,并从理论上进行分析,证明其收敛性.该方法采用分而治之策略对大状态空间进行分块,使得每个分块能够调入内存独立学习.在每个分块学习了一个周期之后交换到外存上,调入下一个分块继续学习.分块之间在换入换出的过程中交换信息,以使整个学习任务收敛到最优解.同时针对各分块之间的学习顺序会显著影响学习效率的问题,提出了一种新颖的智能调度算法,该算法利用强化学习值函数更新顺序的分布特点,基于多种调度策略加权优先级的思想,把学习集中在能产生最大效益的子问题空间,保障了IS-SRL方法的学习效率.在上述调度算法中融入并行调度框架,利用多Agent同时学习,得到了IS-SRL方法的并行版本——IS-SPRL方法.实验结果表明,IS-SPRL方法具有较快的收敛速度和较好的扩展性能.
刘全傅启明杨旭东荆玲李瑾李娇
关键词:并行计算可扩展性智能调度
共1页<1>
聚类工具0