火星科技网您的位置:首页 >车科技 >

Nvidia将支持Arm硬件用于高性能计算

导读 本周在德国法兰克福举行的国际超级计算大会(ISC)上,总部位于圣克拉拉的芯片制造商Nvidia宣布将支持由英国半导体设计公司Arm设计的处理器。

本周在德国法兰克福举行的国际超级计算大会(ISC)上,总部位于圣克拉拉的芯片制造商Nvidia宣布将支持由英国半导体设计公司Arm设计的处理器。Nvidia预计合作伙伴关系将为能够实现“exascale”性能的超级计算机铺平道路 - 换句话说,能够每秒完成至少一个五分位数浮点计算(“翻转”),其中翻牌等于两个15位数字乘以一起。

Nvidia表示,到2020年,它将为Arm生态系统提供全套人工智能和高性能计算(HPC)软件,据Nvidia估计,该生态系统现在可以加速600多个HPC应用程序和机器学习框架。在其他资源和服务中,它将提供CUDA-X AI和HPC库,图形加速框架,软件开发工具包,支持OpenACC的PGI编译器以及分析器。

Nvidia创始人兼首席执行官Jensen Huang在一份声明中指出,由于这一承诺,Nvidia将很快加速所有主要的处理器架构:x86,IBM的Power和Arm。

“随着传统的计算扩展已经结束,全球的超级计算机已经变得功率受限,”黄说。“我们对设计世界上最节能的CPU架构的Arm的支持是一个巨大的进步,它建立在Nvidia正在推动为HPC行业提供更节能的未来的举措的基础上。”

这不是Nvidia与Arm的第一次合作。前者的AGX平台采用基于Arm的芯片,其深度学习加速器(NVDLA) - 基于Nvidia Xavier片上系统的模块化可扩展架构 - 与Arm的Project Trillium集成,该平台旨在将深度学习推理带入更广泛的移动和物联网(IoT)设备。

如果有的话,今天的新闻突显了Nvidia对HPC市场的共同推动,预计到2025年价值将达到596.5亿美元。为此,该芯片制造商最近与InfiniBand和以太网互连供应商Mellanox合作优化超级计算集群的处理,并继续投资大量采用3D封装技术和互连技术(如NVSwitch),允许密集的放大节点。

“在过去十年中,我们一直是大型超级计算机上使用Nivida [显卡]的先锋,包括日本最强大的ABCI超级计算机,”日本大型科研机构Riken的主任Satoshi Matsuoka表示。“在Riken R-CCS [Riken计算科学中心],我们正在开发下一代基于Arm的exascale Fugaku超级计算机,并且很高兴听到Nvidia的GPU加速平台将很快用于基于Arm的系统。”

Nvidia已经取得了一些胜利。去年秋天,TOP500超级计算机性能排名(基于LINPACK得分)显示,使用该公司GPU加速器的系统数量同比增长48%,总数攀升至127,或者是5倍。几年前。世界上最快的超级计算机中有两个 - 美国能源部在橡树岭国家实验室举行的峰会和Sierra在劳伦斯利弗莫尔国家实验室 - 以及其他一些推出了Nvidia的DGX-2 Pod,它结合了36个DGX-2系统并提供超过3个petaflops的双精度性能。

DGX-2于2018年3月在圣克拉拉举行的Nvidia GPU技术大会上宣布,拥有300个处理器,能够提供2 petaflops的计算能力,同时仅占用15个数据中心空间。它补充了HGX-2,这是一个配备16个Tesla V100图形处理单元的云服务器平台,共同提供半个TB的内存和两个千万亿次计算能力。

DGX SuperPod

随着合作伙伴宣布这一早晨,Nvidia透露它声称是世界上第22快的超级计算机:DGX SuperPod。人工智能基础设施副总裁Clement Farabet表示,它将加速公司的自主车辆开发。

“人工智能领导要求在计算基础设施方面发挥领导作用,”Farabet说“很少有人工智能挑战与训练自动驾驶汽车一样苛刻,这需要对神经网络进行数万次重新训练,以满足极端的精确度需求。没有像SuperPod那样的大规模处理能力的替代品。“

SuperPod包含96个DGX-2H单元和1,536个V100 Tensor Core图形芯片,与Mellanox和Nvidia的NVSwitch技术相互连接。它比同等顶级超级计算系统小约400倍,组装只需三周,同时提供9.4 petaflops的计算性能。在实际测试中,它设法在不到两分钟的时间内训练基准AI模型ResNet-50。

客户可以从Nvidia的任何DGX-2合作伙伴处购买SuperPod的全部或部分内容。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。