AI数据中心高端以太网芯片需求回升

袁遗说科技 2024-08-31 17:54:34

本文由半导体产业纵横(ID:ICVIEWS)编译自digitimes

以太网芯片在云端AI领域的发展空间越来越大。

博通高级副总裁兼核心交换事业部总经理拉姆·维拉·加(Ram Velaga)表示,超大规模数据中心运营商正在采用大量高端以太网芯片,以确保数据中心内所有高端GPU都能连接起来,形成一台庞大的超级计算机,达到更高的集成度,满足日益增长的AI计算需求。

在内华达州拉斯维加斯举行的 VMware Explore 2024 活动上, Velaga表示,网络化芯片已经成为生成式 AI 硬件系统的核心部分。未来计算将不再取决于单个 GPU 的算力有多高,或者数据中心有多少个 GPU,而是取决于计算工作的分配以及数据的传输和交换。

Velaga强调,超大规模数据中心先前采用的是InfiniBand网络连接技术,但就目前情况来看,无论是网络架构配置的弹性,还是技术规格升级的可扩展性,以太网芯片都将是核心技术。

并非所有云端AI计算场景都需要使用高规格的以太网芯片,在一些规模较小的基础设施中,数据交换传输需求不是那么高,因此使用的以太网芯片体积较小。

有些客户出于自身考虑而采用InfiniBand技术,但当计算需求达到一定程度时,GPU在功耗和发热量方面的物理限制,需要更多的机架来容纳如此大量的GPU,而以太网是目前最具成本效益的解决方案,可让如此庞大的系统以高度集成的方式运行。

以太网芯片在云端AI领域的发展空间越来越大,不少业内人士指出,美国芯片大厂博通、Marvell Technology等纷纷投入大量资源布局云端数据中心以太网芯片,就是因为预期未来需求将持续增长,甚至超越技术和供给能力的上限。

中国台湾IC设计业者观察到此一趋势,逐渐淡化消费性市场的重心,部分业者进行云端AI相关布局,从最基础标准的产品线做起,希望累积与技术、服务器客户的合作经验。

Velaga 提到,随着 GPU 数据中心传输带宽不断提升,AI 运算需求也水涨船高,他指出,博通正加速研发硅光传输技术,不少与网通芯片相关的厂商也积极投入这方面,确保传输技术效能能跟上。

以太网芯片是一款微小的控制器,把太网媒体接入控制器(MAC)和物理接口收发器(PHY)整合进同一芯片,能去掉许多外接元器件。

这种方案可使MAC和PHY实现很好的匹配,同时还可减小引脚数、缩小芯片面积。单片以太网微控制器还降低了功耗,特别是在采用掉电模式的情况下。

VMware 在收购博通后转向订阅模式,扩大关键合作伙伴关系

在被博通收购后,云软件巨头 VMware 面临着有关其未来方向的质疑,尤其是其定价结构的变化。

该公司已确认将从授权模式过渡到订阅模式。此外,VMware 与 Nvidia、Intel 和 AMD 等主要云服务提供商 (CSP) 和 AI 芯片制造商的紧密合作关系在收购后备受关注,业界担心收购可能会对这些关系产生影响。

然而,这些担忧似乎毫无根据,因为 VMware 继续扩大与这些关键行业参与者的合作。例如,在 VMware 的 2023 EXPLORE 大会上,该公司宣布与 Nvidia 建立合作伙伴关系,VMware 将通过该合作伙伴关系在 Nvidia 的硬件系统上提供全面的虚拟化和云服务。

2024 年,VMware 进一步强调了深化这种关系的计划,强调尽管拥有博通的网络芯片技术,但 VMware 的解决方案仍将继续支持 Nvidia 的接口,例如 NVLink。

VMware 还扩大了与英特尔 Gaudi 2 和 AMD 平台的合作,并在问答环节中重申,该公司过去十年的战略是与尽可能多的生态系统合作伙伴建立关系。这种方法得到了博通的大力支持。

博通此前曾表示,它无意与主要的 AI 芯片制造商直接竞争,而是将专注于互补策略,特别是在 ASIC 领域。尽管 Nvidia 一直致力于实现网络芯片的自给自足,但这并不妨碍博通和 Nvidia 之间的合作潜力。

博通收购VMware的根本原因,是希望借助VMware在云端市场的既有优势,VMware也指出,随着云端AI开发越来越复杂,新的挑战也随之而来,需要与领先的GPU和CPU厂商进行密切的技术合作,才能提供稳定、高效的云端虚拟化服务。

鉴于人工智能私有化趋势日益增长,云虚拟化平台的重要性不容小觑。从 VMware 和博通的角度来看,与其他芯片制造商保持开放的关系具有显著的优势。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。

0 阅读:41