人工智能芯片耗电:超130万户家庭!

芯片界有话说 2024-06-17 08:21:29

随着人工智能技术的飞速发展,数据中心GPU的功耗问题正引起广泛关注。最新数据显示,用于AI工作负载的高性能数据中心GPU的功耗高达700瓦。在61%的年利用率下,每个GPU每年约消耗3.74 MWh的电力。这一高能耗现象引发了人们对电力供应和环境影响的深切担忧,特别是在考虑到去年销售的GPU总量时。

根据市场数据,英伟达去年销售了376万块数据中心GPU,占据了98%的市场份额。再加上来自英特尔、AMD及其他厂商的2%,2023年交付给数据服务器的GPU总数超过了383.6万个。这些GPU每年总共消耗约14,348.63 GWh的电力。对比之下,美国家庭平均每年的用电量为10,791千瓦时,这意味着去年销售的数据中心GPU的电力消耗相当于130万户家庭的年用电量。以加州为例,该州2022年的总电力生产量为203,257 GWh,而数据中心GPU的耗电量相当于该州年产量的7%左右。

需要注意的是,这些数据仅涉及数据中心的GPU消耗,并未包括CPU、冷却系统等其他设备的耗电。例如,大多数RTX 4090显卡建议至少配备850瓦的电源,有些甚至需要1000瓦或1200瓦。如果我们按照最低值计算,去年建造的服务器和数据中心每年需要超过25 GWh的电力。此外,这些数据还不包括2022年及以后新建的数据中心以及今年即将上线的更多数据中心。

行业分析师预测,到2028年,数据中心GPU市场将以34.6%的年增长率持续扩展,这意味着未来几年内我们可能会看到更多的GPU投入使用。同时,英伟达的下一代AI GPU预计将比目前的700瓦H100消耗更多的能量。即使数据中心计算机在未来几年保持当前的电力消耗水平(事实上不会),数据中心的电力需求也将随着市场的增长而成比例地增加。

数据中心的迅猛增长引发了对电力基础设施的担忧。美国政府已经开始与科技公司讨论其AI电力需求问题,尤其是考虑到这些新数据中心可能会对电网造成不当压力。Meta创始人马克·扎克伯格甚至表示,有限的电力将限制AI的发展。根据Enerdata的数据,过去十年全球电力产量每年仅增长2.5%,这进一步加剧了这一担忧。

然而,科技公司并非对这一问题视而不见。微软等传统软件公司计划为其数据中心投资小型模块化核反应堆。此举尤其重要,因为微软正与OpenAI合作建造一台价值1000亿美元的AI超级计算机,这无疑将需要大量电力。

在数据驱动的社会中,AI的崛起意味着我们需要大量电力来满足计算需求。此外,其他即将到来的技术如电动汽车也需要大量电力。除非我们找到更高效的芯片和电机设计,否则我们可能不得不增加电力生产设施,并升级电力基础设施,以确保在需要的地方提供足够的电力。

0 阅读:16