您的位置: 专家智库 > >

张宏达

作品数:14 被引量:123H指数:7
供职机构:空军工程大学防空反导学院计算机工程系更多>>
发文基金:陕西省自然科学基金国家自然科学基金更多>>
相关领域:自动化与计算机技术理学兵器科学与技术军事更多>>

文献类型

  • 13篇期刊文章
  • 1篇会议论文

领域

  • 12篇自动化与计算...
  • 1篇军事
  • 1篇理学
  • 1篇兵器科学与技...

主题

  • 10篇支持向量
  • 10篇支持向量机
  • 10篇向量
  • 10篇向量机
  • 3篇SVM
  • 2篇凸壳
  • 2篇凸壳算法
  • 2篇仿真
  • 2篇分类器
  • 2篇SVM增量学...
  • 1篇对等
  • 1篇多类分类
  • 1篇多类分类方法
  • 1篇学习算法
  • 1篇蚁群
  • 1篇蚁群算法
  • 1篇运行支撑环境
  • 1篇增量学习算法
  • 1篇支撑环境
  • 1篇支持向量机集...

机构

  • 14篇空军工程大学
  • 1篇空军装备研究...

作者

  • 14篇张宏达
  • 11篇王晓丹
  • 6篇白冬婴
  • 4篇徐海龙
  • 3篇吴崇明
  • 2篇权文
  • 2篇郑春颖
  • 2篇刘倞源
  • 1篇赵学军
  • 1篇石志寒
  • 1篇马飞
  • 1篇范隽
  • 1篇郑全弟
  • 1篇孙东延
  • 1篇韩钧
  • 1篇刘惊源
  • 1篇蒋玉娇
  • 1篇廖勇

传媒

  • 2篇控制与决策
  • 2篇计算机工程与...
  • 1篇系统工程与电...
  • 1篇数据采集与处...
  • 1篇计算机工程
  • 1篇计算机应用
  • 1篇计算机工程与...
  • 1篇航空计算技术
  • 1篇微计算机信息
  • 1篇弹箭与制导学...
  • 1篇空军工程大学...
  • 1篇第六届全国信...

年份

  • 3篇2010
  • 3篇2009
  • 3篇2008
  • 1篇2007
  • 2篇2006
  • 2篇2005
14 条 记 录,以下是 1-10
排序方式:
分类器集成差异性研究被引量:12
2009年
差异性是集成学习中的重要概念,对差异性的研究在集成学习领域中占有基础性地位。从差异度量方法、差异度与分类器集成性能的关系以及差异度在集成优化中的应用三个方面对当前研究进展进行分析。深入分析了现有工作,对存在的问题给出一些解决思路,建议不能为了差异性以较大的基分类器精度损失为代价;不能为了引入差异性而偏离原来的分类问题。
张宏达王晓丹韩钧徐海龙
关键词:分类器集成泛化性能
一种LDA与SVM混合的多类分类方法被引量:3
2009年
针对决策有向无环图支持向量机(DDAGSVM)需训练大量支持向量机(SVM)和误差积累的问题,提出一种线性判别分析(LDA)与SVM混合的多类分类算法.首先根据高维样本在低维空间中投影的特点,给出一种优化LDA分类阈值;然后以优化LDA对每个二类问题的分类误差作为类间线性可分度,对线性可分度较低的问题采用非线性SVM加以解决,并以分类误差作为对应二类问题的可分度;最后将可分度作为混合DDAG分类器的决策依据.实验表明,与DDAGSVM相比,所提出算法在确保泛化精度的条件下具有更高的训练和分类速度.
张宏达王晓丹徐海龙
关键词:支持向量机线性判别分析可分性
基于粗糙集的神经网络的目标识别应用被引量:4
2008年
在现代防空作战中,如何快速准确的对敌我(友)目标进行识别,至关重要。本文提出先利用粗糙集理论对目标特征属性进行优化筛检,再利用神经网络对目标进行分类识别,该方法不但提高了识别的准确率而且兼顾到识别的效率。试验结果表明,该方法符合现代防空作战中目标识别的要求,具有一定的实用价值。
白冬婴马飞张宏达陈朝霞
关键词:目标识别神经网络粗糙集防空作战
利用KKT条件与类边界包向量的SVM增量学习算法被引量:11
2010年
为实现对历史训练数据有选择地遗忘,并尽可能少地丢失训练样本集中的有用信息,分析了KKT条件与样本分布间的关系并得出了结论,给出了增量训练中当前训练样本集的构成。为了提高SVM增量训练速度,进一步利用训练样本集的几何结构信息对当前训练样本集进行约减,用约减后的当前训练样本集进行SVM增量训练,从而提出一种利用KKT条件与类边界包向量的快速SVM增量学习算法。实验结果表明,该算法在保持较高分类精度的同时提高了SVM增量学习速度。
吴崇明王晓丹白冬婴张宏达
关键词:支持向量机KKT条件
基于截止投票的SVM集成快速分类方法被引量:1
2009年
通过充分利用多个基分类器间的差异,集成分类器能够有效提高泛化精度,但是分类复杂度也随之增加。针对一类典型基于重采样和投票法的集成分类器,根据少数服从多数原则,在不影响分类精度的前提下给出了硬截止投票方法;针对基于B agg ing的SVM集成的特点,引入概率分析,分析根据集成中部分投票预测集成结果的损失概率,给出了基于损失概率的软截止投票方法,该方法可推广到其他基于重采样技术与投票法的集成分类系统。对一个人工数据集和两个UC I数据集的实验表明该方法在保证分类精度的前提下,大幅提高了分类速度。
张宏达王晓丹刘倞源徐海龙
关键词:支持向量机集成重采样
一种新的SVM对等增量学习算法被引量:28
2006年
在分析支持向量机(SVM)寻优问题的KKT条件和样本分布之间关系的基础上,分析了新增样本的加入对SV集的影响,定义了广义KKT条件。基于原训练样本集和新增训练样本集在增量训练中地位等同,提出了一种新的SVM增量学习算法。算法在及时淘汰对后继分类影响不大的样本的同时保留了含有重要分类信息的样本。对标准数据集的实验结果表明,算法获得了较好的性能。
王晓丹郑春颖吴崇明张宏达
关键词:支持向量机
对求壳向量算法的分析与实验
为提高SVM增量学习速度,求壳向量算法被用来求训练样本集中最有可能成为支持向量的样本。针对求壳向量算法在增量学习中的应用,本文分析了求凸壳算法的复杂性,对求凸壳算法在不同情况下的性能进行了实验与分析,并指出了求凸壳算法的...
白冬婴王晓丹张宏达权文
关键词:支持向量机SVM增量学习凸壳算法
文献传递
SVM增量学习中的概念迁移问题及处理方法被引量:4
2008年
支持向量机由于其自身的特点使其在许多应用中表现出了特有的优势,是目前研究的热点。由于标准的SVM学习算法并不直接支持增量式学习,所以研究有效的SVM增量学习方法具有重要理论意义和实用价值。对SVM增量学习中动态目标学习的有关问题进行了深入讨论,定义了静态目标学习与动态目标学习。针对动态目标学习提出了概念迁移问题,给出了SVM增量学习概念迁移的数学表达。讨论和分析了现有的SVM增量学习方法、以及目前处理SVM增量学习中概念迁移问题的方法并得出了结论。
白冬婴王晓丹张宏达权文
关键词:支持向量机支持向量
一种基于凸壳算法的SVM集成方法被引量:3
2008年
为提高支持向量机(SVM)集成的训练速度,提出一种基于凸壳算法的SVM集成方法,得到训练集各类数据的壳向量,将其作为基分类器的训练集,并采用Bagging策略集成各个SVM。在训练过程中,通过抛弃性能较差的基分类器,进一步提高集成分类精度。将该方法用于3组数据,实验结果表明,SVM集成的训练和分类速度平均分别提高了266%和25%。
张宏达王晓丹白冬婴刘倞源
关键词:凸壳算法支持向量机
一种基于AdaBoost的SVM分类器被引量:27
2006年
针对AdaBoost的分量分类器的分类精度和差异性互为矛盾、以至于该矛盾的存在降低了AdaBoost算法的分类精度和泛化性的问题,提出了一种变σ-AdaBoostRBFSVM算法,通过根据训练样本调整各个分量分类器的核函数参数值,使分量分类器在精度和差异性之间达到一定的平衡,从而提高了集成分类器的分类精度和泛化性。对标准数据集的分类实验结果表明了算法的有效性。
王晓丹孙东延郑春颖张宏达赵学军
关键词:支持向量机ADABOOST算法分类器
共2页<12>
聚类工具0