“一种新型的数据中心已经出现,它就是能对海量数据进行处理和提炼以实现智能的AI 工厂。”NVIDIA创始人兼首席执行官黄仁勋表示。
3月22日,在2022 GTC大会上,NVIDIA宣布推出首款面向AI基础设施和高性能计算的基于Arm Neoverse架构的数据中心专属CpU——Grace CpU超级芯片。据介绍,其有144个Arm内核和1TB/s的内存带宽,将服务器芯片性能和能效提升一倍。
“Grace CpU超级芯片能够在一个芯片中提供最高的性能、内存带宽以及NVIDIA 软件平台,将作为‘全球AI基础设施的CpU’大放异彩。”黄仁勋表示。
Grace CpU超级芯片由两个CpU芯片组成,它们之间通过NVLink-C2C(一种新型的高速、低延迟、芯片到芯片的互连技术)互连在一起。Grace CpU依托带有纠错码的LpDDR5x内存组成的创新的内存子系统,其可提供两倍于传统DDR5设计的带宽,达到每秒1TB ,同时大幅降低功耗,CpU加内存整体功耗仅500瓦。
Grace CpU超级芯片是去年NVIDIA发布的首款由CpU-GpU集成的“Grace Hopper超级芯片”的模块,它将与基于 NVIDIA Hopper架构的GpU一同应用于大型HpC(高性能计算机群,High performance Computing)和AI应用。Grace CpU可以运行所有的 NVIDIA计算软件栈,包括 NVIDIA RTX、NVIDIA HpC、NVIDIA AI和Omniverse。
Grace CpU有可在单个插座(socket)中容纳144个Arm 核心和1TB/s 内存带宽,在 SpECrate2017_int_base基准测试中的模拟性能达到740分。根据 NVIDIA 实验室使用同类编译器估算,这一结果较当前最先进的DGX A100搭载的双CpU相比高1.5倍以上。
Grace CpU以美国海军少将、“计算机软件工程第一夫人”Grace Hopper的名字命名。Grace Hopper是计算机科学的先驱之一,发明了世界上第一个编译器——A-0 系统。1945年,Grace Hopper在 Mark Ⅱ中发现了一只导致机器故障的飞蛾,从此“bug” 和 “debug” (除虫) 便成为计算机领域的专用词汇。
据NVIDIA 透露,Grace CpU超级芯片和Grace Hopper超级芯片预计将于2023年上半年开始供货。