张英俊 作品数:98 被引量:324 H指数:9 供职机构: 太原科技大学计算机科学与技术学院 更多>> 发文基金: 山西省自然科学基金 山西省科技重大专项 山西省科技攻关计划项目 更多>> 相关领域: 自动化与计算机技术 矿业工程 文化科学 电气工程 更多>>
一种改进的概念语义相似度计算方法 被引量:5 2012年 针对当前概念相似度计算的片面性和不完善性等不足,提出一种改进的基于语义距离的概念间语义相似度计算方法。从有向边包含的信息量、有向边的类型以及概念密度3个方面对语义距离进行扩展,将语义距离转换成语义相似度,通过引入不对称因子,使最终概念语义相似度计算更加精确。将该方法与基于信息量方法、基于距离方法及人的主观判断结果进行比较,验证了该方法的可行性和有效性。 张艳霞 张英俊 潘理虎 谢斌红 陈立潮关键词:本体 语义相似度 语义距离 一种基于改进YOLOv3的人员在岗状态检测方法 本发明公开了一种基于改进YOLOv3的人员在岗状态检测方法,ILF‑YOLOv3(Improve Loss and Feature‑YOLOv3)。首先,使用二分交叉熵损失函数和添加制衡权重参数的方式分别对YOLOv3算... 谢斌红 栗宁君 张英俊 潘理虎结合注意力机制的车型检测算法 2021年 针对目标检测算法应用在车辆类型检测的场景中,检测速度较快,但检测精度相对较低的问题,该文对CenterNet算法进行改进。首先,使用ResNet作为主干网对车型图像进行特征提取,并在特征提取网络中引入通道注意力和空间注意力,对不同通道以及不同位置的特征进行权重划分,获取更多需要关注的特征,抑制无用的特征,进而提升车型检测算法的分类及定位准确率;其次,针对小目标车型检测精度不高的问题,将不同尺度车型特征进行融合,更好地提取细粒度车型特征,提升检测精度。为验证结合注意力机制的车型检测算法的有效性,在KITTI车型数据集和BIT-Vehicle数据集上进行实验,mAP值分别达到94.6%和95.5%。结果表明改进后的算法模型在检测速度影响较小的情况下检测精度得到显著提升。 谢斌红 赵金朋 张英俊关键词:智慧交通 目标检测 结合剪枝与流合并的卷积神经网络加速压缩方法 被引量:7 2020年 深度卷积神经网络因规模庞大、计算复杂而限制了其在实时要求高和资源受限环境下的应用,因此有必要对卷积神经网络现有的结构进行优化压缩和加速。为了解决这一问题,提出了一种结合剪枝、流合并的混合压缩方法。该方法通过不同角度去压缩模型,进一步降低了参数冗余和结构冗余所带来的内存消耗和时间消耗。首先,从模型的内部将每层中冗余的参数剪去;然后,从模型的结构上将非必要的层与重要的层进行流合并;最后,通过重新训练来恢复模型的精度。在MNIST数据集上的实验结果表明,提出的混合压缩方法在不降低模型精度前提下,将LeNet-5压缩到原来的1/20,运行速度提升了8倍。 谢斌红 钟日新 潘理虎 张英俊关键词:卷积神经网络 冗余 基于本体的煤炭科学数据集成模型研究 被引量:2 2010年 传统方法在数据集成的过程中难以解决数据冗余量大、信息表达不清、数据异构等问题,新兴的本体技术与XML-DTD技术相结合能够较好的解决以上问题。本文通过分析煤炭领域内瓦斯事故特点,针对瓦斯事故的相关数据建立了瓦斯数据的OWL本体模型。该模型用XML语言来描述瓦斯数据及其相关属性,使得数据表示方式灵活多样,数据属性含义描述更加清晰。同时,又通过SWRL语言来描述本体概念之间的语义关联规则,再通过Jess引擎进行规则推导,便可以在元数据的基础上派生新数据,得到新结论。因此,该模型除了具有以往关系模型的特点外,还实现了语义推理的功能。 吕岳东 陈立潮 郭勇义 张英俊关键词:数据集成 本体 关联规则 病理切片图像拼接修正技术 2011年 图像拼接技术具有广泛的应用性,是当前图像处理领域的研究热点。由于技术原因,在拼接时会造成误配。目前一般利用全局优化的方法进行图像拼接修正,理论上较为合理,但是速度和效果方面都欠佳。针对图像在拼接过程中,位置之间的相关性,提出一种基于单元拼接理论的修正方法。提出拼接参数的相关公式,分析并证明公式的正确性,并给出修正简化规律,基于该方法开发了图像拼接修正软件。该软件在技术上实现自动计算、显示、修改、传递各参数,操作简便。实验采用了16张,4*4的图像,对其拼接产生的缝隙进行修正,最终误差控制在一个像素以内。该方法适用于对拼接精度要求高的应用领域,有较高的实用价值。 王荣 陈立潮 张英俊关键词:图像处理 图像拼接 基于残差学习的非对称卷积神经网络图像去噪方法 被引量:1 2023年 为了获得更清晰的图片,更好地去除图像中的噪声,对目前去噪效果较好的基于残差学习技术的深度卷积神经网络去噪算法(DnCNN)进行改进,提出了DnACNN模型,该模型通过将常规的方形卷积核替换为一组非对称卷积核来增强方形卷积核的骨架部分,从而提高特征提取精度和性能;并在测试阶段进行权值融合,从而减少参数、简化模型,确保不增加任何额外的推理时间。实验表明该方法在不增加任何额外推理时间的前提下能更有效地去除图像中的噪声,与目前主流去噪方法相比,能更好地捕获特征,提升特征丰富性,获得了更高的峰值信噪比,且能够更多地保留细节纹理。 曹阳 张英俊 谢斌红关键词:图像去噪 一种面向大规模构件库的构件检索方法 2013年 针对如何在大规模构件库中改善构件检索性能的问题,提出一种基于功能倒排索引与改进VSM(Vector Space Model)相似度的构件检索方法。应用功能倒排索引能够快速排除在功能上不相关的构件,有效缩小构件检索范围;对VSM相似度算法进行改进,提高构件检索的查准率。与常用检索方法的对比实验表明,该方法有效提高了检索速度,并且检索查全率与查准率也保持在较高水平。 陈立潮 张雷 潘理虎 张英俊 谢斌红关键词:倒排索引 基于集成学习方法的实体关系抽取 被引量:1 2021年 基于神经网络的实体关系抽取模型已经被证明了它的有效性,但使用单一的神经网络模型在不同的输入条件下,会表现出不同的结果,性能不太稳定.因此本文提出一种利用集成学习思想将多个单一模型集成为一个综合模型的方法.该方法主要使用MLP (MultiLayer Perceptron)将两个单一模型Bi-LSTM (Bi-directional Long ShortTerm Memory)和CNN (Convolutional Neural Network)集成为一个综合模型,该模型不仅可以充分利用两个单一模型的优势,而且可以利用MLP的自学习能力与自动分配权重的优势.本研究在SemEval 2010 Task 8数据集上取得了87.7%的F1值,该结果优于其他主流的实体关系抽取模型. 丰小丽 张英俊 谢斌红 赵红燕关键词:实体关系抽取 CNN MLP 基于BSTTC模型的中文命名实体识别 被引量:3 2021年 大多数中文命名实体识别模型中,语言预处理只关注单个词和字符的向量表示,忽略了它们之间的语义关系,无法解决一词多义问题;Transformer特征抽取模型的并行计算和长距离建模优势提升了许多自然语言理解任务的效果,但全连接结构使得计算复杂度为输入长度的平方,导致其在中文命名实体识别的效果不佳.针对这些问题,提出一种基于BSTTC (BERT-Star-Transformer-TextCNN-CRF)模型的中文命名实体识别方法.首先利用在大规模语料上预训练好的BERT模型根据其输入上下文动态生成字向量序列;然后使用星型Transformer与TextCNN联合模型进一步提取句子特征;最后将特征向量序列输入CRF模型得到最终预测结果.在MSRA中文语料上的实验结果表明,该模型的精确率、召回率和F1值与之前模型相比,均有所提高.与BERT-Transformer-CRF模型相比,训练时间大约节省了65%. 申晖 张英俊 谢斌红 赵红燕关键词:命名实体识别 条件随机场