当地时间6月10日,美光科技宣布已向多个主要客户交付HBM4 36GB 12 层堆叠样品。
美光表示,这一里程碑扩大了美光在 AI 应用内存性能和能效方面的领导地位。该HBM4 内存基于其成熟的 1ß (1-beta) DRAM 工艺、成熟的 12 层先进封装技术和高性能内存内置自检 (MBIST) 功能,为开发下一代 AI 平台的客户和合作伙伴提供无缝集成。
随着生成式 AI 的使用不断增长,有效管理推理的能力变得更加重要。美光HBM4 采用 2048 位接口,每个内存堆栈的速度超过 2.0 TB/s,性能比上一代提高了 60% 以上。这种扩展的接口促进了快速通信和高吞吐量设计,从而加速了大型语言模型和思维链推理系统的推理性能。简而言之,HBM4 将帮助 AI 加速器更快地响应并更有效地推理。
此外,与美光上一代 HBM3E 产品相比,美光 HBM4 的功率效率提高了 20% 以上,后者率先在 HBM 功率效率方面建立了新的、无与伦比的行业基准。这种改进以最低的功耗提供了最大的吞吐量,从而最大限度地提高了数据中心的效率。
生成式 AI 用例继续成倍增加,这项变革性技术有望为社会带来重大利益。HBM4 是一个关键的推动因素,可以推动更快的洞察和发现,从而促进医疗保健、金融和交通等不同领域的创新。
“美光 HBM4 的性能、更高的带宽和行业领先的能效证明了我们的内存技术和产品领先地位,”美光云内存业务部高级副总裁兼总经理 Raj Narasimhan 说。“在 HBM3E 部署取得的非凡里程碑的基础上,我们将继续通过 HBM4 和我们强大的 AI 内存和存储解决方案产品组合推动创新。我们的 HBM4 生产里程碑与客户的下一代 AI 平台准备情况保持一致,以确保无缝集成和量产。”
美光计划在 2026年增加 HBM4 的产能,与客户的下一代 AI 平台的量产保持一致。