您的位置: 专家智库 > >

国家自然科学基金(10471017)

作品数:16 被引量:43H指数:4
相关作者:吴微李正学熊焱张超杨洁更多>>
相关机构:大连理工大学辽宁科技大学大连海事大学更多>>
发文基金:国家自然科学基金更多>>
相关领域:自动化与计算机技术理学经济管理更多>>

文献类型

  • 13篇中文期刊文章

领域

  • 9篇自动化与计算...
  • 4篇理学

主题

  • 6篇神经网
  • 6篇神经网络
  • 4篇收敛性
  • 3篇单调性
  • 3篇网络
  • 3篇CONVER...
  • 2篇NEURAL...
  • 2篇BP神经
  • 2篇BP神经网
  • 2篇BP神经网络
  • 2篇BP算法
  • 2篇P
  • 1篇动量项
  • 1篇动量因子
  • 1篇多层感知器
  • 1篇学习法
  • 1篇在线梯度法
  • 1篇梯度法
  • 1篇梯度算法
  • 1篇图文混排

机构

  • 8篇大连理工大学
  • 2篇辽宁科技大学
  • 1篇大连海事大学

作者

  • 7篇吴微
  • 3篇熊焱
  • 2篇张超
  • 2篇李正学
  • 1篇李峰
  • 1篇邵郅邛
  • 1篇张会生
  • 1篇徐东坡
  • 1篇鲁慧芳
  • 1篇杨洁
  • 1篇周凤麒
  • 1篇亢喜岱

传媒

  • 3篇Journa...
  • 2篇大连理工大学...
  • 1篇黑龙江大学自...
  • 1篇应用数学
  • 1篇应用数学和力...
  • 1篇大连海事大学...
  • 1篇Numeri...
  • 1篇Journa...
  • 1篇Acta M...
  • 1篇Applie...

年份

  • 1篇2010
  • 2篇2009
  • 6篇2008
  • 2篇2007
  • 2篇2006
16 条 记 录,以下是 1-10
排序方式:
L^p(K)Approximation Problems in System Identification with RBF Neural Networks
2009年
L^p approximation problems in system identification with RBF neural networks are investigated. It is proved that by superpositions of some functions of one variable in L^ploc(R), one can approximate continuous functionals defined on a compact subset of L^P(K) and continuous operators from a compact subset of L^p1 (K1) to a compact subset of L^p2 (K2). These results show that if its activation function is in L^ploc(R) and is not an even polynomial, then this RBF neural networks can approximate the above systems with any accuracy.
NAN Dong LONG Jin Ling
L^p Approximation Capability of RBF Neural Networks被引量:1
2008年
L p approximation capability of radial basis function (RBF) neural networks is investigated. If g: R +1 → R 1 and $g(\parallel x\parallel _{R^n } )$g(\parallel x\parallel _{R^n } ) ∈ L loc p (R n ) with 1 ≤ p < ∞, then the RBF neural networks with g as the activation function can approximate any given function in L p (K) with any accuracy for any compact set K in R n , if and only if g(x) is not an even polynomial.
Dong NanWei WuJin Ling LongYu Mei MaLin Jun Sun
CONVERGENCE OF GRADIENT METHOD WITH MOMENTUM FOR BACK-PROPAGATION NEURAL NETWORKS被引量:5
2008年
In this work, a gradient method with momentum for BP neural networks is considered. The momentum coefficient is chosen in an adaptive manner to accelerate and stabilize the learning procedure of the network weights. Corresponding convergence results are proved.
Wei WuNaimin ZhangZhengxue LiLong LiYan Liu
关键词:MOMENTUM
一种具有自适应动量因子的BP算法被引量:16
2008年
为提高神经网络的训练速度,提出一种自适应确定带动量项BP算法中动量因子的方法.在学习率为常数情况下,根据误差函数关于权值向量的梯度变化情况,自适应调节动量因子.数值试验表明,该方法对离线和在线训练均有效,且在收敛速度和算法稳定性上优于常动量因子的BP算法.
张会生吴微
关键词:神经网络BP算法动量因子
多输出单元BP神经网络梯度算法的收敛性被引量:2
2006年
梯度算法广泛应用于训练前馈神经网络.对于单输出前馈神经网络的梯度算法的收敛性已经有了详细的讨论.研究了带有多个输出单元的BP神经网络的梯度算法,证明了误差函数在梯度算法所生成的权向量序列上的单调递减性,并且证明了梯度算法的弱收敛性和强收敛性.
周凤麒吴微熊焱
关键词:BP神经网络梯度算法收敛性
Finite Convergence of On-line BP Neural Networks with Linearly Separable Training Patterns被引量:1
2006年
In this paper we prove a finite convergence of online BP algorithms for nonlinear feedforward neural networks when the training patterns are linearly separable.
邵郅邛吴微杨洁
Pi-sigma神经网络的带动量项的异步批处理梯度算法收敛性被引量:3
2008年
本文将动量项引入到训练Pi-sigma神经网络的异步批处理的梯度算法中,有效的改善了算法的收敛效率,并从理论上对该算法的收敛性进行研究,给出了误差函数的单调性定理及该算法的弱收敛和强收敛性定理.计算机仿真实验亦验证了带动量项的异步批处理梯度算法的有效性和理论分析的正确性.
熊焱张超
关键词:PI-SIGMA神经网络动量项单调性收敛性
Elman网络梯度学习法的收敛性被引量:9
2008年
考虑有限样本集上Elman网络梯度学习法的确定性收敛性.证明了误差函数的单调递减性.给出了一个弱收敛性结果和一个强收敛结果,表明误差函数的梯度收敛于0,权值序列收敛于固定点.通过数值例子验证了理论结果的正确性.
吴微徐东坡李正学
关键词:ELMAN神经网络收敛性单调性
英文科技文档识别中数学公式定位新方法被引量:1
2009年
提出了一种自底向上和自顶向下相结合的定位英文科技文档图像中数学表达式的新方法.首先,利用整幅图像的统计数据计算出用于分类的基准参数,然后利用局部极大成分的水平投影数据进行初步行分割,再利用每行的竖直投影数据将每行的符号分成数个子区域.对每一个子区域依据其性质利用基准参数进行分类,通过对特定类别子区域的适当合并,最终得到文档图像中公式的位置.新方法可以用于处理图文混排的文档图像,能够降低文档中的图片、表格等元素对于公式定位结果的影响.
李峰吴微
关键词:图文混排
基于灰色关联分析的高阶神经网络剪枝算法被引量:4
2010年
在综合分析网络纵向、横向灰色关联分析特点的基础上提出了一种新的基于灰色关联分析的剪枝算法,并将其用于训练高阶神经网络.该算法运用灰色关联分析对比网络各节点输出值序列之间联系的紧密程度,用网络纵向灰色关联分析确定剪枝连接,再用网络横向灰色关联分析确定相应的并枝连接,实现网络结构的动态修剪.训练后的高阶神经网络具有合理的网络拓扑结构和较好的泛化能力.实验验证了该算法的合理性、有效性.
熊焱吴微张超亢喜岱
关键词:灰色关联分析高阶神经网络剪枝算法最小二乘法
共2页<12>
聚类工具0