英伟达发布“超级AI芯片”H200 预计明年第二季度开始供应

来源:李郭同舟网(www.thekarlz.com)时间:2024-01-10 18:54:45作者:李郭同舟网

黄仁勋又升级“装备”了。英伟预计11月14日,达发第季度开《每日经济新闻》记者从英伟达处获悉,布超当地时间11月13日,明年英伟达宣布推出NVIDIA HGX?始供 H200(AI芯片型号,以下简称“H200”)。英伟预计据悉,达发第季度开H200是布超首款采用HBM3e GPU(内存,相较此前速率更快、明年容量更大),始供进一步加速生成式AI与大语言模型,英伟预计同时推进用于HPC(高性能计算)工作负载的达发第季度开科学计算,可提供传输速度4.8 TB/秒的布超141GB显存,与上一代架构的明年NVIDIA A100相比容量翻了近一倍,带宽增加了2.4倍。始供

在英伟达超大规模和高性能计算副总裁Ian Buck看来,想要通过生成式AI和HPC应用创造智能,就必须使用大型、快速的GPU显存来高速、高效地处理海量数据(603138)。当H200与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU搭配使用时,就组成了带有HBM3e的GH200 Grace? Hopper超级芯片——专为大型HPC和AI应用而设计的计算模块。

英伟达发布“超级AI芯片”H200 预计明年第二季度开始供应

从规格来看,H200将提供四路和八路H200服务器主板可选,与HGX H100系统的硬件和软件都兼容;还可用于今年8月发布的采用HBM3e的NVIDIA GH200 Grace Hopper?超级芯片。这些配置使H200可以部署在各类数据中心,包括本地、云、混合云和边缘;可为各种应用工作负载提供最高的性能,包括针对1750亿参数以上超大模型的LLM训练和推理。

英伟达发布“超级AI芯片”H200 预计明年第二季度开始供应

架构方面,与前代相比,NVIDIA Hopper架构实现了性能跃升,如在一个700亿参数的LLM——Llama 2上的推理速度比H100(英伟达AI芯片)提高了近一倍。

英伟达发布“超级AI芯片”H200 预计明年第二季度开始供应

根据英伟达方面的说法,将于2024年第二季度开始通过全球系统制造商和云服务提供商提供H200;服务器制造商和云服务提供商也预计于同一时间开始提供搭载H200的系统。

(责任编辑:王治强 HF013)

社会热点排行

友情链接
63961