网站标志
正文
2012HPC和超算之战
作者:网络    发布于:2012-05-10 17:33:00    文字:【】【】【
在服务器领域,HPC和超级计算机备受关注。它们整合了大量的处理器以实现突破性的计算性能,HPC和超级计算机主要应用在高精尖科研和国防领域。

  去年11月举办的超级计算机大会吸引了来自世界各地人们的极大关注。随着科技的不断进步和发展,这些超级计算机的内部体系也在不断发生改变。以往超级计算机主要关注的是高性能,强大的运算能力,而现在人们也开始关注超级计算机的能耗问题,尤其是当超级计算机朝向Exascale(百亿亿次)发展的时候,能耗问题会变得更加突出。

  在今年,我们将会看到更多采用GPU计算的超级计算机系统。著名的Nvidia公司仍将不遗余力地推广Tesla处理器,并且该公司还表示,全球500强超级计算机中已经有35台使用了它们的处理器——也就是传统处理器搭载GPU核芯的计算芯片。

  另外,Nvidia还将升级产品架构,从40nm的Fermi升级到更为精细的采用28nm制程的Kepler,这也必定是未来Tesla产品特性的一部分。而其他更多详情,我们只能寄希望于今年,看看Nvidia能否为我们带来更多惊喜。与此同时,该公司还拥有针对GPU计算的开源CUDA开发平台。
CUDA GPU产品路线图

  不过说到HPC,虽然当今最顶级的HPC系统使用的是富士通的SPARC处理器,但市场上应用最广的还是英特尔和AMD两家。在2012年,这两家公司在HPC领域将展开更为激烈的市场角逐。

  其中最有看点的非MIC莫属。 英特尔将为HPC带来一股具有颠覆性意义的强大MIC(集成众核架构,Many-Integrated-Chip )“Knights Corner”处理器。在单个芯片上它可以提供最少50个核心,而且可以和传统的至强处理器配合通用,就像Nvidia所采用的GPU可以和传统的CPU配合使用一样。

英特尔众核架构与至强产品特性

  基于MIC架构的这种产品将于今年发布,在22nm制程工艺的基础上,单个芯片可以提供高达1万亿次浮点运算的强悍性能。

  人们常说,忘记历史就意味着背叛。在很大程度上可以说,过去的发展可以为现在甚至是不远的将来打下一个基调。过去一年来,服务器领域出现的新一代处理器至强E3、E5甚至更高规格的E7,都会为占据绝大份额的x86服务器市场产生巨大冲击。

  与此同时,AMD推土机架构的模块化多核心处理器平台,也会进一步加剧业已激烈的市场竞争格局。而主打低功耗、高密集运算的ARM,兼容Windows平台、主动放低身价的大型机和英特尔带来的MIC众核架构、新一代安腾Poulson的现身,注定会让服务器领域在2012年上演一场绝世大杀戮。