思科推出新款AI网络芯片,欲与博通、Marvell一较高下

思科推出新款AI网络芯片,欲与博通、Marvell一较高下

6月21日消息,思科系统公司于当地时间周二推出了用于AI超级计算机的SiliconOne G200/G202系列网络芯片,将与Broadcom(AVGO)和Marvell的产品进行竞争。

思科表示,其SiliconOne系列的芯片正在全球六大云服务提供商中的五家进行测试,但思科并没有透露这些公司的名字。根据研究机构的数据显示,全球主要的云服务提供商包括亚马逊网络服务、微软Azure、谷歌云、阿里云等,它们共同主导着云服务市场。

自今年以来,随着生成式人工智能(如ChatGPT)的日益普及,推动了对于图形处理单元(GPU)的需求,同时面向此类AI服务器的专用网络芯片也是需求大增,这芯片关乎着AI服务器之中庞大的GPU之间的通信速度。

思科是网络设备的主要供应商,包括以太网交换机等产品,可以将计算机、笔记本电脑、路由器、服务器和打印机等设备连接到局域网。

思科表示,Silicon One G200系列提供了其统一架构的优势,特别专注于增强的基于以太网的人工智能/机器学习(AI/ML)和网络规模的主干部署,具有先进的功能,可以优化AI/ML工作负载的真实世界性能,同时通过重大创新降低网络的成本、功耗和延迟。

其中,Cisco Silicon One G200是一款5 nm、51.2 Tbps、512 x 112 Gbps串行器-解串器(SerDes)。它是一种独特的可编程、确定性、低延迟设备,具有高级可见性和控制功能,是网络规模网络的理想选择。

Cisco Silicon One G202为仍想使用50G SerDes将光学器件连接到交换机的客户带来了类似的好处。它是一款5 nm、25.6 Tbps、512 x 56 Gbps SerDes,具有与Silicon One G200相同的特性,但性能只有其一半。

思科称,Silicon One G200是基于以太网的AI/ML网络的理想解决方案,原因如下:

1、使用业界最高的基数交换机,在一台设备上有512 x 100GE以太网端口,客户可以构建一个32K 400G GPU AI/ML集群,该集群具有两层网络,所需的光学器件减少50%,交换机减少40%,网络层减少33%,大大减少了AI/ML群集的环境足迹。根据美国环境保护局的数据,这每年可节省900万千瓦时,相当于每年燃烧6000多公吨二氧化碳或730万磅煤炭。

2、先进的拥塞感知负载平衡技术使网络能够避免传统的拥塞事件。

3、先进的数据包喷洒技术最大限度地减少了网络中拥塞热点的产生。

4、即使在出现故障的情况下,基于高级硬件的链路故障恢复也能在大规模网络中提供最佳性能。

以下是思科众多与Cisco Silicon One相关的创新:

聚合架构

1、Cisco Silicon One提供了一种可以跨客户网络部署的架构,从路由角色到网络级前端网络再到网络级后端网络,大大缩短了部署时间,同时通过启用聚合基础设施将持续运营成本降至最低。

2、使用通用软件开发工具包(SDK)和标准交换机抽象接口(SAI)层,客户只需将Cisco Silicon One环境移植到其网络操作系统(NOS)一次,并在不同的网络角色中利用这一投资。

3、与思科所有的设备一样,Cisco Silicon One G200拥有一个大型且完全统一的数据包缓冲区,可在大型网络中优化突发吸收和吞吐量。这通过吸收突发而不是产生优先流量控制来最大限度地减少线路头阻塞。

整个价值链的优化

1、Cisco Silicon One G200的基数是其他512以太网MAC解决方案的两倍,使客户能够通过移除网络层来显著降低网络部署的成本、功耗和延迟。

2、凭借思科自己内部开发的下一代SerDes技术,Cisco Silicon One G200设备能够驱动43 dB凸点到凸点通道,从而实现共封装光学器件(CPO)、线性可插拔对象(LPO)和4米26 AWG铜线的使用,这远远超出了IEEE标准的最佳机架内连接。

3、与思科已经优化的Cisco Silicon One G100设备相比,Silicon One G200的能效提高了两倍多,延迟降低了两倍。

4、该设备的物理设计和布局采用系统优先的方法,允许客户放慢系统风扇的运行速度,从而显著降低系统功耗。

思科研究员和前首席工程师Rakesh Chopra说:“G200和G202将成为市场上最强大的网络芯片,推动AI / ML工作负载实现最节能的网络。

值得一提的是,博通在今年4月发布Jericho3-AI芯片,也可连接多达3.2万颗GPU。

编辑:芯智讯-林子

0

付费内容

查看我的付费内容