您的位置: 专家智库 > >

中央级公益性科研院所基本科研业务费专项(NP2013308)

作品数:3 被引量:9H指数:2
相关作者:张云洲吕相文张玉洁袁家斌张唯唯更多>>
相关机构:南京航空航天大学更多>>
发文基金:江苏高校优势学科建设工程资助项目国家自然科学基金国家高技术研究发展计划更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 3篇中文期刊文章

领域

  • 3篇自动化与计算...

主题

  • 3篇CUDA
  • 2篇虚拟化
  • 2篇GPU
  • 2篇GPU通用计...
  • 1篇多任务
  • 1篇虚拟化环境
  • 1篇数据通信
  • 1篇通信
  • 1篇负载均衡
  • 1篇报文
  • 1篇报文分类
  • 1篇并行计算

机构

  • 3篇南京航空航天...

作者

  • 2篇吕相文
  • 2篇张云洲
  • 2篇张玉洁
  • 1篇张唯唯
  • 1篇袁家斌

传媒

  • 1篇计算机工程与...
  • 1篇计算机与现代...
  • 1篇计算机技术与...

年份

  • 1篇2015
  • 1篇2014
  • 1篇2013
3 条 记 录,以下是 1-3
排序方式:
GPU虚拟化环境下的数据通信策略研究被引量:4
2015年
虚拟化技术能够以较低的成本和能源消耗共享有效的资源,一些应用程序往往需要利用图形处理器来加快它们的计算以提高性能。但是由于虚拟化本身的特点,在GPU虚拟化环境下进行CUDA应用开发会带来很大的性能开销。此外,当采用多GPU并行处理大规模的程序时,传统的GPU之间的数据交互方式是通过CPU来中转,不仅会带来"路程"上的开销,同时PCI-E相对于GPU显存的低带宽更是限制了数据传输的速率。针对以上问题,文中在Xen和VMware虚拟化平台下,针对CUDA应用的延迟和吞吐率找出最优的虚拟机间通讯方式,针对GPU之间不同的数据传输方式,找出最优通信方案,并从理论上和实验中分析出影响多GPU协同运算效率的因素。
张玉洁吕相文张云洲
关键词:GPU通用计算虚拟化CUDA数据通信
基于GPU的并行报文分类方法被引量:2
2014年
报文分类是网络设备的基本处理模式,通常采用报文过滤系统对每个报文进行分类。传统报文分类难以适应当今越来越高的网络流量,分类处理速度低于报文到达网络接口的速度,无法实现实时分析。因此,本文提出使用GPU对大规模报文集进行并行分类的方法,利用GPU的线程级并行处理能力加速报文分类吞吐率,并对其性能及优化方法进行详细分析。实验结果表明,GPU加速的Linear Search和RFC报文分类算法与纯CPU系统执行相比可达到4.4~132.5倍的加速比。
张唯唯张玉洁
关键词:GPUCUDA报文分类并行计算
面向多任务的GPU通用计算虚拟化技术研究被引量:3
2013年
随着硬件功能的不断丰富和软件开发环境的逐渐成熟,GPU在通用计算领域的应用越来越广泛,使用GPU集群来进行海量数据计算的例子不胜枚举。但是,相对于CPU,GPU的功耗较大,如果每个节点都配备GPU,则将大大增加集群的功耗。虚拟化技术的引入使得在虚拟机中利用GPU资源进行通用计算成为可能。为高效、充分地利用GPU,针对GPU的特点,提出了一种面向多任务的可动态调度、支持多用户并发的GPU虚拟化解决方案。在已有的GPU虚拟化方案的基础上,综合考虑虚拟机域间通信的通用性以及任务的周转时间,建立了CUDA管理端来对GPU资源进行统一管理。通过设置综合负载评价值实现负载均衡并降低任务的平均周转时间。在设计的系统上进行大规模矩阵运算实验,结果说明了GPU虚拟化方案在计算系统中的可行性和高效性。
张云洲袁家斌吕相文
关键词:GPU通用计算虚拟化CUDA负载均衡
共1页<1>
聚类工具0