您的位置: 专家智库 > >

中央高校基本科研业务费专项资金(GK201102007)

作品数:7 被引量:265H指数:6
相关作者:谢娟英谢维信郭文娟王艳娥高红超更多>>
相关机构:陕西师范大学深圳大学西安电子科技大学更多>>
发文基金:中央高校基本科研业务费专项资金陕西省科技攻关计划国家自然科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 7篇中文期刊文章

领域

  • 7篇自动化与计算...

主题

  • 6篇聚类
  • 3篇聚类算法
  • 3篇聚类中心
  • 3篇初始聚类中心
  • 2篇K-MEAN...
  • 2篇K-MEAN...
  • 1篇等价
  • 1篇等价关系
  • 1篇样本密度
  • 1篇征子
  • 1篇支持向量
  • 1篇支持向量机
  • 1篇秩和检验
  • 1篇特征选择算法
  • 1篇特征子集
  • 1篇区分度
  • 1篇子集
  • 1篇相关系数
  • 1篇向量
  • 1篇向量机

机构

  • 7篇陕西师范大学
  • 3篇深圳大学
  • 2篇西安电子科技...

作者

  • 7篇谢娟英
  • 3篇谢维信
  • 2篇郭文娟
  • 1篇王艳娥
  • 1篇高新波
  • 1篇高红超
  • 1篇马箐
  • 1篇高瑞

传媒

  • 1篇计算机学报
  • 1篇计算机工程
  • 1篇西北大学学报...
  • 1篇计算机应用
  • 1篇计算机应用研...
  • 1篇软件学报
  • 1篇陕西师范大学...

年份

  • 1篇2015
  • 3篇2014
  • 3篇2012
7 条 记 录,以下是 1-7
排序方式:
Num-近邻方差优化的K-medoids聚类算法被引量:11
2015年
针对K-medoids聚类算法对初始聚类中心敏感、聚类结果依赖于初始聚类中心的缺陷,提出一种局部方差优化的K-medoids聚类算法,以期使K-medoids的初始聚类中心分布在不同的样本密集区域,聚类结果尽可能地收敛到全局最优解。该算法引入局部方差的概念,根据样本所处位置的局部样本分布定义样本的局部方差,以样本局部标准差为邻域半径,选取局部方差最小且位于不同区域的样本作为K-medoids的初始中心,充分利用了方差所提供的样本分布信息。在规模大小不等的UCI数据集以及带有不同比例噪声的不同规模的人工模拟数据集上进行实验,并利用六种聚类算法性能测试指标进行测试,结果表明该算法具有聚类效果好、抗噪性能强的优点,而且适用于大规模数据集的聚类。提出的Num-近邻方差优化的K-medoids聚类算法优于快速K-medoids聚类算法及基于邻域的改进K-medoids聚类算法。
谢娟英高瑞
关键词:局部方差初始聚类中心聚类
基于密度RPCL的K-means算法被引量:5
2012年
目的探索同时确定K-means算法的最佳聚类数K和最佳初始聚类中心的方法,使K-means算法的聚类结果尽可能地收敛于全局最优解或近似全局最优解。方法以次胜者受罚竞争学习(Rival Penalized Competitive Learning,RPCL)作为K-means的预处理步骤,以其学习结果作为K-means的聚类数和初始聚类中心并依据数据集样本自然分布定义样本密度,将此密度引入RPCL的节点权值调整,以此密度RPCL的输出作为K-means的最佳聚类数K和最佳初始聚类中心。采用UCI机器学习数据库数据集以及随机生成的带有噪音点的人工模拟数据集进行实验测试,并用不同的聚类结果评价指标对聚类结果作了分析。结果提出的密度RPCL为K-means提供了最佳的类簇数和最佳的初始聚类中心。结论基于密度RPCL的K-means算法具有很好的聚类效果,对噪音数据有很强的抗干扰性能。
谢娟英郭文娟谢维信高新波
关键词:K-MEANS初始聚类中心
最小方差优化初始聚类中心的K-means算法被引量:84
2014年
传统K-means算法随机选取初始聚类中心,容易导致聚类结果不稳定,而优化初始聚类中心的K-means算法需要一定的参数选择,也会使聚类结果缺乏客观性。为此,根据样本空间分布紧密度信息,提出利用最小方差优化初始聚类中心的K-means算法。该算法运用样本空间分布信息,通过计算样本空间分布的方差得到样本紧密度信息,选择方差最小(即紧密度最高)且相距一定距离的样本作为初始聚类中心,实现优化的K-means聚类。在UCI机器学习数据库数据集和含有噪音的人工模拟数据集上的实验结果表明,该算法不仅能得到较好的聚类结果,且聚类结果稳定,对噪音具有较强的免疫性能。
谢娟英王艳娥
关键词:聚类K-MEANS算法初始聚类中心
基于特征子集区分度与支持向量机的特征选择算法被引量:64
2014年
考虑特征之间的相关性对于其类间区分能力的影响,提出了一种新的特征子集区分度衡量准则——DFS(Discernibility of Feature Subsets)准则.该准则考虑特征之间的相关性,通过计算特征子集中全部特征对于分类的联合贡献来判断特征子集的类间辨别能力大小,不再只考虑单个特征对于分类的贡献.结合顺序前向、顺序后向、顺序前向浮动和顺序后向浮动4种特征搜索策略,以支持向量机(Support Vector Machines,SVM)为分类工具,引导特征选择过程,得到4种基于DFS与SVM的特征选择算法.其中在顺序前/后向浮动搜索策略中,首先根据DFS准则加入/去掉特征到特征子集中,然后在浮动阶段根据所得临时SVM分类器的分类性能决定刚加入/去掉特征的去留.UCI机器学习数据库数据集的对比实验测试表明,提出的DFS准则是一种很好的特征子集类间区分能力度量准则;基于DFS与SVM的特征选择算法实现了有效的特征选择;与其他同类算法相比,基于DFS准则与SVM的特征选择算法具有非常好的泛化性能,但其所选特征子集的规模不一定是最好的.
谢娟英谢维信
关键词:支持向量机
基于粒计算的K-medoids聚类算法被引量:39
2012年
传统K-medoids聚类算法的聚类结果随初始中心点不同而波动,且计算复杂度较高不适于处理大规模数据集;快速K-medoids聚类算法通过选择合适的初始聚类中心改进了传统K-medoids聚类算法,但是快速K-medoids聚类算法的初始聚类中心有可能位于同一类簇。为克服传统K-medoids聚类算法和快速K-medoids聚类算法的缺陷,提出一种基于粒计算的K-medoids聚类算法。算法引入粒度概念,定义新的样本相似度函数,基于等价关系产生粒子,根据粒子包含样本多少定义粒子密度,选择密度较大的前K个粒子的中心样本点作为K-medoids聚类算法的初始聚类中心,实现K-medoids聚类。UCI机器学习数据库数据集以及随机生成的人工模拟数据集实验测试,证明了基于粒计算的K-medoids聚类算法能得到更好的初始聚类中心,聚类准确率和聚类误差平方和优于传统K-medoids和快速K-medoids聚类算法,具有更稳定的聚类结果,且适用于大规模数据集。
马箐谢娟英
关键词:粒计算等价关系聚类
基于统计相关性与K-means的区分基因子集选择算法被引量:56
2014年
针对高维小样本癌症基因数据集的有效区分基因子集选择难题,提出基于统计相关性和K-means的新颖混合基因选择算法实现有效区分基因子集选择.算法首先采用Pearson相关系数和Wilcoxon秩和检验计算各基因与类标的相关性,根据统计相关性原则选取与类标相关性较大的若干基因构成预选择基因子集;然后,采用K-means算法将预选择基因子集中高度相关的基因聚集到同一类簇,训练SVM分类模型,计算每一个基因的权重,从每一类簇选择一个权重最大或者采用轮盘赌思想从每一类簇选择一个得票数最多的基因作为本类簇的代表基因,各类簇的代表基因构成有效区分基因子集.将该算法与采用随机策略选择各类簇代表基因的随机基因选择算法Random,Guyon的经典基因选择算法SVM-RFE、采用顺序前向搜索策略的基因选择算法SVM-SFS进行实验比较,几个经典基因数据集上的200次重复实验的平均实验结果表明:所提出的混合基因选择算法能够选择到区分性能非常好的基因子集,建立在该区分基因子集上的分类器具有非常好的分类性能.
谢娟英高红超
关键词:相关系数秩和检验K-MEANS聚类FILTER
基于邻域的K中心点聚类算法被引量:31
2012年
提出一种基于邻域的K中心点聚类算法,该算法利用数据集样本的自然分布信息定义数据对象的邻域半径和相应邻域,选择位于样本分布密集区且相距较远的K个数据对象作为初始聚类中心,以期改进快速K中心点算法在选取初始中心点时有可能使多个初始中心位于同一类簇的潜在缺陷.通过UCI机器学习数据库数据集以及随机生成的带有噪音点的人工模拟数据集实验测试,表明提出的基于邻域的K中心点算法不仅具有很好的聚类效果,而且运行时间短,对噪音数据有很强的抗干扰性能,优于传统K中心点算法和Park等人的快速K中心点算法.
谢娟英郭文娟谢维信
关键词:样本密度聚类
共1页<1>
聚类工具0