您的位置: 专家智库 > >

孙洪坤

作品数:7 被引量:18H指数:3
供职机构:苏州大学计算机科学与技术学院更多>>
发文基金:江苏省高校自然科学研究项目江苏省自然科学基金国家自然科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 6篇期刊文章
  • 1篇学位论文

领域

  • 7篇自动化与计算...

主题

  • 3篇DY
  • 2篇梯度下降
  • 1篇迭代
  • 1篇迭代算法
  • 1篇势函数
  • 1篇自适
  • 1篇自适应
  • 1篇拓扑
  • 1篇基于拓扑
  • 1篇奖赏
  • 1篇函数
  • 1篇贝叶斯
  • 1篇PS
  • 1篇Q学习
  • 1篇TD
  • 1篇TS
  • 1篇ERROR
  • 1篇Q

机构

  • 7篇苏州大学
  • 6篇吉林大学

作者

  • 7篇孙洪坤
  • 6篇刘全
  • 6篇傅启明
  • 3篇高龙
  • 2篇肖飞
  • 1篇周鑫
  • 1篇陈桂兴
  • 1篇于俊
  • 1篇周小科
  • 1篇李瑾
  • 1篇穆翔
  • 1篇黄蔚
  • 1篇王辉

传媒

  • 4篇通信学报
  • 1篇计算机研究与...
  • 1篇模式识别与人...

年份

  • 1篇2014
  • 6篇2013
7 条 记 录,以下是 1-7
排序方式:
基于自适应势函数塑造奖赏机制的梯度下降Sarsa(λ)算法被引量:5
2013年
针对连续状态空间下的强化学习算法初始性能差及收敛速度慢的问题,提出利用自适应势函数塑造奖赏机制来改进强化学习算法。该机制通过额外的奖赏信号自适应地将模型知识传递给学习器,可以有效提高算法的初始性能及收敛速度。鉴于径向基函数(RBF)网络的优良性能及存在的问题,提出利用自适应归一化RBF(ANRBF)网络作为势函数来塑造奖赏。基于ANRBF网络提出了梯度下降(GD)版的强化学习算法——ANRBF-GD-Sarsa(λ)。从理论上分析了ANRBF-GD-Sarsa(λ)算法的收敛性,并通过实验验证了ANRBF-GD-Sarsa(λ)算法具有较好的初始性能及收敛速度。
肖飞刘全傅启明孙洪坤高龙
关键词:梯度下降势函数
基于两层模糊划分的时间差分算法被引量:1
2013年
针对传统的基于查询表或函数逼近的Q值迭代算法在处理连续空间问题时收敛速度慢、且不易求解连续行为策略的问题,提出了一种基于两层模糊划分的在策略时间差分算法——DFP-OPTD,并从理论上分析其收敛性。算法中第一层模糊划分作用于状态空间,第二层模糊划分作用于动作空间,并结合两层模糊划分计算出Q值函数。根据所得的Q值函数,使用梯度下降方法更新模糊规则中的后件参数。将DFP-OPTD应用于经典强化学习问题中,实验结果表明,该算法有较好的收敛性能,且可以求解连续行为策略。
穆翔刘全傅启明孙洪坤周鑫
关键词:梯度下降
面向强化学习的规划优化方法研究
强化学习(reinforcement learning, RL)是一类重要的机器学习方法,在智能机器人、经济学、工业制造和博弈等领域得到了广泛的应用。强化学习是一种从环境状态到动作映射的学习,并期望动作从环境中获得的累积...
孙洪坤
文献传递
一种优先级扫描的Dyna结构优化算法被引量:2
2013年
不确定环境的时序决策问题是强化学习研究的主要内容之一,agent的目标是最大化其与环境交互过程中获得的累计奖赏值.直接学习方法寻找最优策略的算法收敛效率较差,而采用Dyna结构将学习与规划并行集成,可提高算法的收敛效率.为了进一步提高传统Dyna结构的收敛速度和收敛精度,提出了Dyna-PS算法,并在理论上证明了其收敛性.该算法在Dyna结构规划部分使用优先级扫描算法的思想,对优先级函数值高的状态优先更新,剔除了传统值迭代、策略迭代过程中不相关和无更新意义的状态更新,提升了规划的收敛效率,从而进一步提升了Dyna结构算法的性能.将此算法应用于一系列经典规划问题,实验结果表明,Dyna-PS算法有更快的收敛速度和更高的收敛精度,且对于状态空间的增长具有较强的鲁棒性.
孙洪坤刘全傅启明肖飞高龙
基于优先级扫描Dyna结构的贝叶斯Q学习方法被引量:6
2013年
贝叶斯Q学习方法使用概率分布来描述Q值的不确定性,并结合Q值分布来选择动作,以达到探索与利用的平衡。然而贝叶斯Q学习存在着收敛速度慢且收敛精度低的问题。针对上述问题,提出一种基于优先级扫描Dyna结构的贝叶斯Q学习方法—Dyna-PS-BayesQL。该方法主要分为2部分:在学习部分,对环境的状态迁移函数及奖赏函数建模,并使用贝叶斯Q学习更新动作值函数的参数;在规划部分,基于建立的模型,使用优先级扫描方法和动态规划方法对动作值函数进行规划更新,以提高对历史经验信息的利用,从而提升方法收敛速度及收敛精度。将Dyna-PS-BayesQL应用于链问题和迷宫导航问题,实验结果表明,该方法能较好地平衡探索与利用,且具有较优的收敛速度及收敛精度。
于俊刘全傅启明孙洪坤陈桂兴
一种二阶TD Error快速Q(λ)算法被引量:5
2013年
Q(λ)学习算法是一种结合值迭代与随机逼近的思想的基于模型无关的多步离策略强化学习算法.针对经典的Q(λ)学习算法执行效率低、收敛速度慢的问题,从TD Error的角度出发,给出n阶TD Error的概念,并将n阶TD Error用于经典的Q(λ)学习算法,提出一种二阶TD Error快速Q(λ)学习算法——SOE-FQ(λ)算法.该算法利用二阶TD Error修正Q值函数,并通过资格迹将TD Error传播至整个状态动作空间,加快算法的收敛速度.在此基础之上,分析算法的收敛性及收敛效率,在仅考虑一步更新的情况下,算法所要执行的迭代次数T主要指数依赖于1/1-γ、1/ε.将SOE-FQ(λ)算法用于Random Walk和Mountain Car问题,实验结果表明,算法具有较快的收敛速度和较好的收敛精度.
傅启明刘全孙洪坤高龙李瑾王辉
关键词:ERROR
基于拓扑序列更新的值迭代算法被引量:1
2014年
提出一种基于拓扑序列更新的值迭代算法,利用状态之间的迁移关联信息,将任务模型的有向图分解为一系列规模较小的强连通分量,并依据拓扑序列对强连通分量进行更新。在经典规划问题Mountain Car和迷宫实验中的结果表明,算法的收敛速度更快,精度更高,且对状态空间的增长有较强的顽健性。
黄蔚刘全孙洪坤傅启明周小科
共1页<1>
聚类工具0