6月19日消息,英伟达(Nvidia)在今年5月的台北电脑展(COMPUTEX 2025)上公布了NVLink Fusion计划,向8家合作伙伴开放了其 NVLink 技术,以帮助他们构建通过将多个芯片连接在一起而实现的强大的定制AI系统。但是,根据 DigiTimes 最新报道称,其中一些关键的 NVLink 组件仍然是未开放的,甚至英伟达可能决定不向某些产品授予许可,并禁止它们进入其生态系统。
在台北电脑展上,英伟达宣布包括联发科(MediaTek)、高通(Qualcomm)、Marvell、Alchip、Astera Labs、Synopsys 和 Cadence等AI芯片设计合作伙伴都可以利用英伟达NVLink技术创建定制AI芯片。作为其中一家获得授权的芯片设计服务厂商,Alchip近日表示,虽然它可以开发全栈 NVLink 实现,但如果英伟达拒绝客户访问 NVLink 协议的某些层,其客户可能难以部署他们的解决方案。这是因为英伟达在控制整个软件堆栈的同时,对协议的访问(超过一定级别)保持了控制。此外,英伟达要求希望使用 NVSwitches 连接到其 GPU 的各方获得特殊许可,这或多或少地使该技术的广泛应用进一步复杂化。
据了解,像 NVLink 这样的技术通常使用多种协议,包括物理层协议 (PHY)、数据链路层协议、传输协议、内存一致性协议、原子作协议和 NUMA 协议。虽然像 Alchip 这样的公司可以访问与硬件相关的所有内容,但负责启动和配置链接的软件层仍然由英伟达控制,因此,Alchip 的客户必须获得英伟达许可证和批准,采用使用Alchip基于 NVLink 的相关设计服务。
除了将 NVLink Fusion IP 的可用性限制为选定的合作伙伴之外,英伟达还要求实际平台的开发人员在其平台中实施至少一个 Nvidia 产品(CPU、GPU、Switch),这将为其带来了额外的收入,但会在一定程度上降低了 NVLink 技术的灵活性。
对 NVLink 的这种严格控制访问,限制了第三方硬件的实际使用,也限制了开放标准倾向于提供的无缝互作性(尽管 NVLink 似乎不是开放标准)。接受 DigiTimes 采访的分析师认为,英伟达在 AI 硬件领域的主导地位及其对软件、定价和供应的垂直控制几乎没有激励真正开放。因此,NVLink Fusion 计划看起来更像是经过精心策划的努力,旨在维护选定合作伙伴之间的商誉,以可控的方式扩展 NVLink 生态系统,使寻求主权的客户能够构建自己的 CPU 或专用加速器,并降低与 UALink 竞争平台的吸引力,预计这些平台将在 2026 年底至 2027 年开始获得牵引力。
去年5月,AMD、英特尔、谷歌、微软、博通、思科、Meta、惠普企业等八家科技巨头联合组建了一个新的行业联盟,旨在推出一项名为UALink的新技术标准,直接对抗英伟达的NVLink技术。UALink,即Ultra Accelerator Link,是一项开放的行业标准,旨在连接数据中心内的AI加速器芯片。这一联盟的成立标志着这些科技巨头将共同推动AI加速器芯片之间连接组件的发展,以满足日益增长的计算密集型工作负载的需求。
归根结底,英伟达最大的竞争风险不是来自竞争对手的单一非常成功的产品,而是一个竞争生态系统,该生态系统具有针对特定工作负载量身定制的多个竞争处理器。
虽然英伟达无法阻止这样一个生态系统的出现,但它要么推迟它蓬勃发展的时刻,要么在精选合作伙伴的帮助下以某种方式为它的出现做好准备,同时保持其创纪录的高利润率。
编辑:芯智讯-浪客剑