河南科技大学数学与统计学院数学与应用数学系
- 作品数:15 被引量:63H指数:4
- 相关机构:西安电子科技大学理学院数学科学系西安电子科技大学理学院洛阳师范学院数学科学学院更多>>
- 发文基金:国家自然科学基金河南省科技计划项目河南省教育厅自然科学基金更多>>
- 相关领域:自动化与计算机技术理学农业科学更多>>
- SVM中一种新的减样方法
- 2007年
- 支持向量机(support vector machine,SVM)(文献[1—2])是近几年来的研究热点,特别是使用SVM进行分类获得了极大的成功。然而当样本较大时,运算速度比较慢,使其应用受到了局限。文献[3]提出了中心支持向量机,它把以往的支持向量机同中心向量结合使用,改善了最优超平面的分类能力。受此启发。
- 黄彦辉薛贞霞张素玲
- 关键词:SVM支持向量机
- 不假定凸性和精确线搜索时DFP算法的收敛性
- 2013年
- 对非凸目标函数,Broyden变尺度算法的收敛性是一个没有完全解决的问题.针对DFP修正公式证明在不假定精确线搜索条件下,对光滑的目标函数,当DFP算法得到的点列收敛时,该点列一定趋向于稳定点.指出对于其他Broyden算法结论都是成立的.
- 濮定国刘美玲
- 关键词:收敛性凸性
- 改进的渐进直推式支持向量机算法被引量:7
- 2009年
- 针对半监督学习中渐进直推支持向量机(Progressive Transductive Support Vector Machines, PTSVM)算法存在训练速度慢,回溯式学习多,学习性能不稳定的问题,提出一种改进的渐进直推支持向量机算法—IPTSVM.该算法利用支持向量的信息选择新标注的无标签的样本点,结合增量支持向量机的迭代更新算法,继承渐进直推支持向量机渐进赋值和动态调整的规则,与PTSVM相比,不仅在一般情况下提高了分类的精度,而且大大提高了算法的速度.在人工模拟数据和真实数据上的实验结果表明了该算法的有效性.
- 薛贞霞刘三阳刘万里
- 关键词:半监督学习支持向量机直推式学习
- 基于类权重的模糊不平衡数据分类方法被引量:1
- 2008年
- 针对现有分类算法通常对不平衡数据挖掘表现出有偏性,即正类样本(通常是更重要的一类)的分类和预测性能差于负类样本的分类和预测性能,提出一种不平衡数据分类方法。该方法通过一个超球面将两类数据以最大分离比率分离,并且引入类权重因子和样本模糊隶属度,同时考虑了不同类的重要性和不同样本对该类的不同贡献,从而提高了不平衡数据中正类的分类和预测的性能以及整体的推广能力。分别在人造数据和UCI真实数据上进行了实验,结果验证了该方法的有效性。
- 薛贞霞张素玲刘三阳
- 关键词:不平衡数据
- 基于超球结构的渐进直推式支持向量机被引量:2
- 2008年
- 针对渐进直推式支持向量机(Progressive Transductive Support Vector Machines,PTSVM)算法训练速度慢,学习性能不稳定的问题,提出一种基于超球结构的渐进直推式支持向量机算法。该算法首先利用支持向量域描述(Support Vector Domain Descrip-tion,SVDD)得到包含每个类别的有标签样本点的最小包球,选择这个包球边界附近的无标签样本点进行标注,然后对目前所有有标签的样本点进行SVM训练。实验结果表明该算法不仅能保持甚至提高算法的精度,更重要的是能大大提高训练速度。
- 李丽蓉牛惠芳薛贞霞
- 关键词:半监督学习支持向量机直推式学习
- 基于马氏椭球学习机的监督野点探测被引量:3
- 2009年
- 针对有少量野点出现的情况,提出一种基于马氏椭球学习机的监督野点探测(supervised outlier detection based on Mahalanobis ellipsoidal learning machine,SODMELM)方法。这种方法通过一个超椭球对正常类进行较好的描述的同时,将野点排除在该椭球外面,继承了马氏椭球学习机(Mahalanobis Ellipsoidal Learning Machine,MELM)将样本点的协方差矩阵即样本点的分布信息考虑进去的优点。真实数据上的实验表明了所提的方法在一般意义上能提高野点探测的效率。
- 李建民李永新薛贞霞
- 基于可信度的渐进直推式支持向量机算法被引量:2
- 2008年
- 针对渐进直推式支持向量机(Progressive transductive support vector machines,PTSVM)算法回溯式学习多,训练速度慢,学习性能不稳定的问题,提出一种基于可信度的渐进直推式支持向量机算法.该算法首先基于支持向量域描述(Support vector domain description,SVDD)对无标签样本点赋予一定的可信度,根据可信度选择新标注的无标签的样本点;其次利用支持向量预选取方法减少训练集的规模,对当前所有有标签的样本点用支持向量机(Support vector ma-chines,SVM)训练,最后重复上述过程从而求出最终的分类超平面.实验结果表明,与PTSVM相比,该算法不仅能较大幅度的提高算法的速度,更重要的是在一般情况下能提高算法的精度.
- 薛贞霞刘三阳刘万里
- 关键词:半监督学习支持向量机直推式学习支持向量域描述
- 支持向量机中核参数选择的Max-Min方法被引量:2
- 2007年
- 通过核函数技巧,定义了高维空间中两样本点之间的距离.引入异类距离平方阵,提出了一种新的选择SVM核参数准则,并给出算法,即max-min方法.该方法利用不同类的训练样本之间的距离,而不通过SVM标准样本训练寻求最优的(或有效的)核参数,避免了传统SVM在模型选择上经验性强和计算量大的不足.同时又分别以径向基核函数(RBF)和多项式函数为例进行试验,显示采用该方法的算法步骤.结合试验结果,得出关于核参数的选择问题一般在一个开集内只有有效值,不存在最优值,即是一个多目标优化问题的结论.并引用已有的实验结果充分支持我们的结论.max-min方法不仅在理论上提供了一种选择最优核参数的方法,而且对试验性选择具有指导作用.
- 薛贞霞黄彦辉张素玲
- 关键词:支持向量机核函数核参数
- 2v-SSPC-一种不平衡数据分类方法被引量:2
- 2008年
- 针对现有分类算法通常对不平衡数据挖掘表现出有偏性,即正类样本(通常是更重要的一类)的分类和预测性能差于负类样本的分类和预测性能,提出一种不平衡数据分类方法。该方法通过一个超球面将两类数据以最大分离比率分离,并且引入两个参数来分别控制两类错分率的上界,不仅提高了不平衡数据集的分类和预测的性能,而且大大缩小了参数的选择范围。在UCI真实数据上进行了实验,并采用ROC曲线下面积作为评估指标进行比较,结果验证了该方法的有效性。
- 薛贞霞刘三阳刘万里
- 关键词:模式识别不平衡数据参数选择超球面
- 约束全局优化问题的一个单参数填充函数方法(英文)被引量:12
- 2008年
- 类似于无约束全局优化问题,本文给出了求解约束全局优化问题的一个填充函数方法,首先给出了约束全局优化问题的填充函数定义,在此定义的基础上提出了一个单参数填充函数。讨论了该函数的性质,并设计了一个填充函数算法,数值计算结果显示该算法是有效的和可行的。
- 王伟祥尚有林张连生
- 关键词:全局优化填充函数方法非线性规划