2023 年 11 月 13 日,美国洛杉矶,英伟达(Nvidia)在 SIGGRAPH 大会上发布了一款新的人工智能(AI)超级芯片平台——NVIDIA HGX™ H200,该平台将为全球各行各业的 AI 应用提供强劲的计算动力。
NVIDIA HGX™ H200 是基于英伟达最新的 Hopper™ 架构的 GPU 平台,搭载了 NVIDIA H200 Tensor Core GPU 和 HBM3e 内存。HBM3e 是一种高性能的内存技术,相比传统的 GDDR6 内存,其速度更快,容量更大,能够有效地处理海量的数据。NVIDIA H200 GPU 的内存容量达到了 141GB,是前一代 NVIDIA A100 GPU 的近两倍,内存带宽也从 2 TB/s 提升到了 4.8 TB/s,是目前市场上最高的水平。
NVIDIA HGX™ H200 平台的强大性能,使其能够应对各种复杂的 AI 和高性能计算(HPC)工作负载,特别是生成式 AI 和大型语言模型(LLM)。生成式 AI 是一种能够自主创造内容的 AI 技术,例如文本、图像、音频、视频等,它可以用于娱乐、教育、医疗、商业等领域。大型语言模型是一种能够理解和生成自然语言的 AI 模型,例如 OpenAI 的 GPT-4,它可以用于对话、搜索、翻译、摘要等任务。这些 AI 应用需要消耗大量的计算资源和内存空间,而 NVIDIA HGX™ H200 平台能够满足它们的需求,提高它们的性能和效率。
据英伟达创始人兼 CEO 黄仁勋介绍,NVIDIA HGX™ H200 平台在 Llama 2(700 亿参数的 LLM)上的推理速度比 NVIDIA HGX™ H100 平台快了一倍,而在训练方面,NVIDIA HGX™ H200 平台能够支持超过 1 万亿参数的 LLM,是目前最大的规模。黄仁勋表示,NVIDIA HGX™ H200 平台是业界领先的端到端 AI 超级计算平台,它将以更快的速度解决世界上一些最重要的挑战。
NVIDIA HGX™ H200 平台将以 4 路和 8 路的配置提供,与 NVIDIA HGX™ H100 平台相比,其每个节点的 GPU 数量增加了一倍,达到了 16 个或 32 个,这意味着更高的计算密度和更低的功耗。NVIDIA HGX™ H200 平台还支持 NVIDIA NVLink™ 和 NVIDIA NVSwitch™ 技术,实现了 GPU 之间的高速互连,以及与 CPU、内存和网络的高效集成。
NVIDIA HGX™ H200 平台已经得到了全球领先的服务器制造商和云服务提供商的认可和支持,包括 AWS、阿里云、百度云、戴尔、惠普、华为、联想、微软、甲骨文等。这些合作伙伴预计将于 2024 年第二季度开始发货基于 H200 的系统,为客户提供最先进的 AI 计算服务。
NVIDIA HGX™ H200 平台的发布,标志着英伟达在 AI 领域的领导地位,也展示了 GPU 技术的不断创新和进步。NVIDIA HGX™ H200 平台将为 AI 研究和应用带来新的可能性,推动人类社会的智能化和数字化转型。
#免责声明#
①本站部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责。
②若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
③如果本站有侵犯、不妥之处的资源,请联系我们。将会第一时间解决!
④本站部分内容均由互联网收集整理,仅供大家参考、学习,不存在任何商业目的与商业用途。
⑤本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与任何商业和非法行为,请于24小时之内删除!