张民
- 作品数:129 被引量:334H指数:9
- 供职机构:苏州大学计算机科学与技术学院更多>>
- 发文基金:国家自然科学基金江苏省高校自然科学研究项目江苏高校优势学科建设工程资助项目更多>>
- 相关领域:自动化与计算机技术文化科学语言文字更多>>
- 一种调序模型建立方法、装置及翻译方法
- 本申请公开了一种调序模型建立方法、装置及翻译方法,其中调序模型建立过程为:对训练语料按照文档标记进行切分,并以文档为单位组织成若干份文档,对每份文档进行文档主题估计,确定对应的主题信息,从训练语料中抽取含主题信息的语块,...
- 熊德意王星张民
- 文献传递
- 基于条件变分自编码器的问题生成方法
- 2023年
- 将条件变分自编码器作为辅助模块,引入预训练语言模型的编码解码过程,通过数据增强(潜在的语义扩充)以提高模型的鲁棒性。通过建立陈述句与疑问句之间的高维分布联系,由分布采样实现一对多的问题生成。结果表明,融合条件变分自编码器不仅能生成多样性的问题,也有助于提升问题生成的模型性能。在基于SQuAD数据集划分的2个答案可知问题生成数据集Split1和Split2上,BLEU-4值分别被提升到20.75%和21.61%。
- 刘东洪宇苏玉兰张民
- 基于递进式半知识蒸馏的神经机器翻译被引量:3
- 2021年
- 神经机器翻译(NMT)模型通常具有庞大的参数量,例如,Transformer在词表设为3万时有将近1亿的神经元,模型的参数量越大,模型越难优化,且存储模型的资源需求也越高。该文提出了一种压缩方法,用于将复杂且参数量大的NMT模型压缩为精简参数量小的NMT模型。该文同时提出半知识蒸馏方法和递进式半知识蒸馏方法,其中半知识蒸馏是从参数多、性能好的教师模型中获取半部分的权重作为精简、参数少的学生模型训练的起点;递进式半知识蒸馏方法指运用过一次半知识蒸馏方法压缩以后,再把当前的半知识蒸馏压缩的模型作为新的教师模型,再次运用半知识蒸馏方法得到全压缩模型。在广泛使用的中英和日英数据集上进行实验,结果表明,该方法对NMT系统有积极影响。在日英数据集上,该文方法的最佳性能比基准模型高2.16个BLEU值,比词级别知识蒸馏方法高1.15个BLEU值,并且高于句子级别的知识蒸馏方法0.28个BLEU值。
- 周孝青段湘煜俞鸿飞张民
- 关键词:机器翻译
- 融合目标端上下文的篇章神经机器翻译
- 2024年
- 神经机器翻译在句子级翻译任务上取得了令人瞩目的效果,但是句子级翻译的译文会存在一致性、指代等篇章问题,篇章翻译通过利用上下文信息来解决上述问题。不同于以往使用源端上下文建模的方法,该文提出了融合目标端上下文信息的篇章神经机器翻译。具体地,该文借助推敲网络的思想,对篇章源端进行二次翻译,第一次基于句子级翻译,第二次翻译参考了全篇的第一次翻译结果。基于LDC中英篇章数据集和WMT英德篇章数据集的实验结果表明,在引入较少的参数的条件下,该文方法能显著提高翻译性能。同时,随着第一次翻译(即句子级译文)质量的提升,所提方法也更有效。
- 贾爱鑫李军辉贡正仙张民
- 关键词:篇章翻译
- 基于双语合成语义的翻译相似度模型被引量:3
- 2015年
- 提出基于双语合成语义的翻译相似度模型,通过在翻译过程中引入双语语义相似度特征提高翻译性能。首先利用分布式方法分别在源端和目标端获取短语的单语合成语义向量,然后利用神经网络将它们映射到同一语义空间,获得双语合成语义向量。在该语义空间,计算源语言短语和对应的目标语言短语之间基于合成语义向量的翻译相似度,将其作为一个新特征加入解码器。在汉英翻译NIST06和NIST08测试数据集上,相较于基准系统,基于双语合成语义的翻译相似度模型获得0.56和0.42 BLEU值的显著性提高。
- 王超超熊德意张民
- 关键词:机器翻译
- 一种文本翻译方法、装置、设备及计算机可读存储介质
- 本发明公开了一种文本翻译方法,包括:对接收到的文本翻译请求进行解析,得到待翻译文本、待翻译文本对应的第一语种类别、以及需翻译为的第二语种类别;利用文本翻译模型中第一语种类别对应的目标情感分类器对待翻译文本进行情感分类,得...
- 段湘煜周孝青张民
- 视觉定位驱动的跨模态行人检索方法
- 本发明涉及一种视觉定位驱动的跨模态行人检索方法,包括获取候选文本和候选图像、输入文本和待检索图像,提取文本的短语;使用训练完成的跨模态预训练模型提取候选文本的短语的特征和候选图像的特征并输入跨模态交互模块计算候选图像对于...
- 王海光曹敏张民
- 结合情感信息的个性化对话生成被引量:2
- 2022年
- 如今,人机对话系统受到了越来越多的关注,但目前主流的人机对话系统很少考虑说话者的个性化特征。对话系统的一个重要且有待探索的方面是根据交互人员的个性来提升对话的响应质量。个性化是创建智能对话系统的关键,可以最大程度地适应到人类的生活中。然而,在自然语言处理中体现人物个性是很困难的,在个性化对话生成中,情感也是一个很重要的因素,因此文中提出了融合属性级情感的个性化对话生成模型。该模型使用BERT-MRC模型抽取人物个性和历史对话的情感词属性词信息,采用改进的UNILM神经网络模型对人物个性以及历史对话进行编码,同时在编码表征时结合情感词信息和属性词信息,最终生成符合人物个性的对话。实验证明,结合情感信息的个性化对话生成方法能够有效地提升个性化对话生成的质量,增加生成回复的多样性。
- 徐晖王中卿李寿山张民
- 关键词:自然语言处理个性化神经网络情感
- 基于多级词典的分词方法、装置、设备及可读存储介质
- 本申请公开了一种基于多级词典的分词方法,该方法采用至少两个词典以辅助分词模型进行分词,在对字符进行表示的时候,不仅生成常规的向量表示,还生成该字符在至少两个词典中的特征表示,最终根据向量表示和特征表示确定该字符的成词标签...
- 李正华周厚全侯洋周仕林张民
- 文献传递
- 基于三元训练的跨领域依存句法分析被引量:2
- 2022年
- 基于大规模领域内标注数据训练的句法分析模型在领域外数据上测试时,性能会急剧下降.导致该现象的原因之一是缺乏高质量的目标领域标注数据.由于人工标注数据耗时耗力,自动生成目标领域标注数据是一种有效的解决方法.其中,三元训练(tri-training)作为一种典型的多模型决策协同训练方法,旨在利用多个模型的预测结果来保证自动标注数据的质量.本文针对跨领域依存句法分析任务,系统比较了3种常用的tri-training方法,在NLPCC-2019评测数据集上取得了目前最佳的性能,并大幅度超过了目前最好结果.此外,还设计了详细的分析实验以深入理解跨领域模型性能下降的原因以及tri-training所起的作用.
- 李帅克李英李正华张民