到2029年,人工智能将消耗世界1.5%用电量

拥抱科技有未来 2024-07-10 21:53:44

生成式人工智能(GenAI)将占据全球更大的电力消耗,以满足运行应用程序的庞大硬件需求。半导体研究公司TechInsights上个月在一份研究报告中表示:“未来五年,人工智能加速器将消耗全球2318太瓦时的电力,将占全球用电量的1.5%,占全球能源的很大一部分。”

TechInsights对2025年至2029年间全球总用电量进行了基线测量,数据来自美国能源情报署。该测量是基于每个GPU使用700瓦的功耗,这是英伟达旗舰Hopper GPU的功耗。英伟达即将推出的名为Blackwell的GPU速度更快,但功耗为1200瓦。

TechInsights的假设仅包括芯片消耗的功率,不包括存储、内存、网络和用于生成式人工智能(GenAI)的其他组件的功耗测量。

TechInsights分析师Owen Rogers在一份研究报告中表示:“考虑到对GPU容量的巨大需求,以及为这些昂贵资产提供回报的需要,如此高的利用率是可行的。”

麦肯锡的一项人工智能调查显示,65%的受访者打算采用GenAI。

为了满足需求,云提供商和超大规模厂商正在投资数十亿美元来增加GPU的数量。微软依靠英伟达的GPU来运行其人工智能基础设施,而Meta声称将拥有一个相当于“近60万个H100”GPU的计算环境。

根据TechInsights的数据,英伟达在2023年的GPU出货量约为376万颗,高于2022年的约260万颗。

去年,Gartner对电力消耗做出了更为激进的预测,称人工智能“可能消耗全球3.5%的电力”。Gartner的方法尚不清楚,但可能包括网络、存储和内存。

人工智能竞赛的特点是公司提供最快的基础设施和更好的结果。在商业中应用人工智能的热潮打乱了长期建立的企业可持续发展计划。

微软(Microsoft)、谷歌(Google)和亚马逊(Amazon)正斥资数十亿美元,建设配备GPU和人工智能芯片的巨型数据中心,以训练和服务更大的模型,这进一步增加了电力负担。

成本挑战

Rogers在研究报告中说,服务器可以花2万美元购买,但企业需要考虑到不断增长的电力成本和能源网络面临的挑战。数据中心还需要设计成能够处理人工智能的电力需求。这种需求可能取决于电网容量和备用电力容量的可用性。能源公司也有责任为人工智能时代做好准备,建立发电站、太阳能农场、输电线路等电力基础设施。

“如果需求无法满足,能源供应商将采取基于市场的方法来管理产能,即提高价格以减少消耗,而不是拒绝产能。这样,可能会对人工智能技术的用户产生成本影响。”Rogers说。

美国政府的第一个目标是到2035年生产100%的清洁能源,这将减轻电网的负担。这也将为更多的人工智能数据中心打开大门。

有效利用能源

人工智能消耗的电力侧面反映了加密货币挖矿给电网带来的负担。根据美国能源情报署2月份发布的一份报告,加密货币挖矿约占美国用电量的2.3%。然而,能源行业观察人士一致认为,与比特币挖矿相比,人工智能是一种更有效的能源利用方式。

英伟达的人工智能重点还在于有效利用能源。为了降低能耗,英伟达的GPU采用了自己的芯片技术。该公司正在将散热技术从空气冷却改为液体冷却。

英伟达超大规模和高性能计算业务副总裁兼总经理Ian Buck在上个月的一次投资者活动上表示:“这里的机会……是帮助他们通过一个固定的兆瓦级数据中心,以尽可能低的成本获得最大性能。”

高性能计算提供商、人工智能和可持续性

在最近的ISC 24超级计算会议上,小组成员取笑英伟达,声称其1000瓦的GPU是“可持续的”。

政府实验室还表示,GPU和直接液体冷却比过去的CPU提供了更好的性能扩展。美国劳伦斯利弗莫尔国家实验室正在建造即将到来的2百亿亿次超级计算机“酋长”(El Capitan),该实验室将冷却能力增加了18,000吨,提高到28,000吨,并将当前和未来系统的电力供应提高到85兆瓦。

LLNL首席技术官Bronis de Supinski在一个分组讨论会上表示:“El Capitan…耗电量将低于40兆瓦,约为30兆瓦,但这仍是很大的电力。”

他承认,El Capitan超级计算机可能不被认为是环保的,但重点也应该放在性能-功率范围内取得的成果上。例如,如果一台超级计算机能够解决气候问题,那么它所消耗的能量可能是值得的。

“一台30兆瓦的超级计算机?我不会告诉你这是一种可持续的资源,但它可以做很多事情来解决我们想要解决的社会问题,” Supinski说。

实验室也在转向可再生能源和液体冷却。例如,LRZ的主席Dieter kranzlller在ISC 24会议上表示,液体冷却“节省了大约50%的冷却能源”。

在可持续计算环境中,碳中和、捕获和再利用废热以及材料再利用也被考虑在内。

HPC的过去驱动未来

让超级计算机更节能的努力现在被用来更好地利用人工智能处理中消耗的每一瓦特能源。

在上个月的惠普Discover大会上,惠普首席执行官 Antonio Neri表示,公司正在将Frontier和El Capitan中使用的能效技术移植到搭载英伟达GPU的人工智能系统中。“惠普拥有世界上最大的水冷制造能力之一。为什么?因为我们必须为超级计算机做这件事。”英伟达首席执行官黄仁勋也在台上称:“液体冷却的未来将带来更好的性能、更低的基础设施成本和更低的运营成本。”

终端人工智能

消费设备制造商正在兜售带有人工智能神经芯片的个人电脑和其他移动设备终端。神经芯片可以在本地运行人工智能模型,减少云计算中GPU的压力。

苹果提供了其设备上和云上人工智能战略的完整愿景——如果iPhone或Mac确定无法在设备上完成人工智能任务,它会将查询重新路由到苹果数据中心的云服务器。苹果用户还可以选择是在设备上运行人工智能还是通过云运行。

微软鼓励在Windows设备中使用人工智能芯片。高通的AI Hub允许用户运行基准测试,以了解AI模型在设备上的运行情况。这可以让用户决定是在设备上运行推理还是在云中运行。然而,目前还没有针对个人电脑的人工智能杀手级应用程序,可以让个人电脑将人工智能的压力从云端的GPU转移下来。

0 阅读:3