三大原厂预计明年一季度完成HBM3e验证,2026年推出HBM4

11月28日消息,根据市场研究机构TrendForce最新公布的研究报告显示,为了更妥善且健全供应链管理,英伟达(NVIDIA)规划加入更多高频宽內存(HBM)供应商。

三大原厂预计2024年一季度完成HBM3e样品验证

资料显示,美光已于今年7月底向英伟达提供了8hi(8层)(24GB)的HBM3e样品;SK海力士也已于今年8月中提供了8hi(24GB)的HBM3e样品;三星则于今年10月初提供了8hi(24GB)的HBM3e样品。

由于HBM验证过程繁琐,预计耗时两个季度。TrendForce预期,最快在2023年底,部分厂商的HBM3e将取得验证结果,而上述三大原厂均预计于2024年第一季完成验证。不过,最新的消息显示,三星的HBM3(24GB)预期提早于今年12月在NVIDIA完成验证。

值得注意的是,各原厂的HBM3e验证结果,也将决定最终英伟达2024年在HBM供应商的采购权重分配,目前验证皆尚未完成,因此,英伟达的2024年HBM整体采购量仍有待观察。

展望2024年,观察目前各AI芯片供应商的开案进度,英伟达2023年的高阶AI芯片(采用HBM)的既有产品为A100/A800以及H100/H800;2024年则将把产品组合(Product Portfolio)更细致化的分类。

除了原上述型号之外,英伟达也规划推出使用6颗HBM3e的H200以及8颗HBM3e的B100,并同步整合英伟达自家基于Arm构架的CPU与GPU,推出GH200以及GB200。

至于AMD与Intel产品规划,AMD 2024年出货主流为MI300系列,采用HBM3,下一代MI350将采用HBM3e,预计2024下半年开始进行HBM验证,实际看到较明显的产品放量(Ramp Up)时间预估应为2025年第一季。

以Intel Habana来看,2022下半年推出的Gaudi 2采用6颗HBM2e,2024年中预期在新型号Gaudi 3持续采取HBM2e,但将用量升级至8颗。

因此,TrendForce认为,英伟达在HBM规格、产品准备度(Readiness)及时间轴上,可望持续以领先的GPU规格,在AI芯片竞局取得领先。

HBM4规划2026年推出

另外在HBM4的规划上,TrendForce指出,三大原厂的HBM4预计规划于2026年推出,包含英伟达以及其他CSP(云端业者)在未来的产品应用上,规格和性能将更优化。

受到规格更往高速发展带动,将首次看到高频宽內存(HBM)最底层的Logic die(又名Base die),采用12nm制程wafer,该部分将由晶圆代工厂提供,使得单颗HBM产品,需要结合晶圆代工厂与內存厂的合作。

随着客户对运算性能要求的提升,HBM4在堆叠的层数上,除了现有的12hi(12层)外,也将再往16hi(16层)发展,更高层数也预估带动新堆叠方式fybrid bonding的需求。

HBM4 12hi产品将于2026年推出,而16hi产品则预计于2027年问世。

TrendForce观察,针对HBM4,各买方也开始启动定制化要求,除了HBM可能不再仅是排列在SoC主芯片旁边,亦有部分讨论转向堆叠在SoC主芯片之上。

虽然目前所有选项仍在讨论可行性中,并尚未定案,但TrendForce认为,未来HBM产业将转为更客制化的角度发展,相比其他DRAM产品,在定价及设计上,更加摆脱通用型(Commodity)DRAM的框架,呈现特定化的生产。

编辑:芯智讯-林子

0

付费内容

查看我的付费内容