国家自然科学基金(60605005)
- 作品数:3 被引量:8H指数:2
- 相关作者:庞彦伟俞能海沈道义王雷刘政凯更多>>
- 相关机构:中国科学技术大学天津大学更多>>
- 发文基金:国家自然科学基金中国博士后科学基金国家重点实验室开放基金更多>>
- 相关领域:自动化与计算机技术更多>>
- 结合提升自举FLD投影的特征提取算法被引量:1
- 2009年
- 针对两类分类问题,提出一种基于自适应提升(Adaptive Boosting,Adaboost)算法的分类特征提取算法.首先对训练样本集进行自举采样从而生成一定数量的训练样本自举子集,然后通过对每个自举子集的Fisher线性判别分析(FLD),得到相应数量的一维自举投影向量.在Adaboost算法迭代的每一步中,具有最小的加权最近邻分类误差的一维自举投影向量被作为分类特征选出,用来构成最终的强分类器.该算法可以有效地克服传统特征提取算法性能依赖于数据分布以及提取准则不直接与训练误差相关的弱点.实验结果表明,相比传统算法,该算法的分类准确度有较明显的提升,并且特别适用于数据分布复杂的情况.
- 沈道义俞能海庞彦伟王雷
- 关键词:自举ADABOOSTFISHER线性判别分析
- 一种自动抑制离群点的子空间学习方法被引量:2
- 2008年
- 子空间学习如主成分分析是有效的数据降维方法。但这类方法计算的基向量受离群(outlier)数据的影响很大,导致降维后的数据不能准确地刻画数据的真实分布。为了减少离群数据的影响,该文提出了一种改进的子空间学习方法。该方法不需要直接探测离群数据的位置,而且子空间的求解可归结为特征值分解问题,具有全局最优解。仿真数据上的试验表明该方法是有效的。
- 庞彦伟刘政凯
- 关键词:子空间降维离群数据
- 基于遗传算法的线性判别分析方法被引量:5
- 2008年
- 由于线性判别分析(Linear discriminant analysis,LDA)算法并不直接以训练误差作为目标函数,所以在Fisher准则不能代表最小训练误差情况下,LDA算法无法找到最优的分类子空间。本文针对这种情况,首先通过分析数据样本分布与LDA投影向量之间的关系,揭示了LDA投影向量与类间散布矩阵和类内散布矩阵特征值之间存在的关联,并以此提出一种基于遗传算法的LDA算法。该算法以子空间上的训练误差最小为目标,通过遗传算法调整LDA算法中类间矩阵特征值的大小,达到搜索最佳特征子空间的效果。通过模拟数据和真实数据的实验,表明这种方法的分类正确率比现有的线性子空间方法有明显提高。
- 沈道义庞彦伟王雷俞能海
- 关键词:线性判别分析特征值子空间遗传算法