据外媒报道,在OpenAI训练的人工智能聊天机器人ChatGPT大火之后,谷歌、Meta等科技巨头们加大了在生成式人工智能研发和应用领域的投入,这也给诸多领域带来了新的发展机遇,尤其是提供算力支持的芯片,英伟达H100、A100等供不应求,大幅推升了他们的营收和利润。
不过,生成式人工智能研发和应用的热潮,也有不利的一面,例如对电力的消耗。已有外媒在报道中表示,ChatGPT每天需要处理约2亿次请求,日耗电量超过了50万千瓦时。
ChatGPT日耗电量超过50万千瓦时,就意味着这一热门应用的日耗电量,已相当于数万家庭的日用电量。外媒在报道中也提到,根据2022年的数据,美国家庭的日均用电量是29千瓦时。50万千瓦时就已能满足17241个美国家庭一天的用电需求,是47个美国家庭一年的用电量。
如果将ChatGPT等生成式人工智能技术整合到热门的应用中,电力需求就将更大。有银行的数据科学家预计,如果谷歌将生成式人工智能应用到每一次的搜索中,每年的耗电量就将达到约290亿千瓦时,相当于肯尼亚、克罗地亚等国家一年的电力消耗。
银行的这一数据科学家还预计,到2027年,全球人工智能领域的电力需求可能在85到134太瓦时,也就是在850亿到1340亿千瓦时,预计将占到全球年耗电量的0.5%。
不过,外媒在报道中也提到,由于在推进人工智能研发及应用的科技巨头们,并未披露电力消耗方面的数据,因而计算人工智能总的耗电量并不容易。银行的数据科学家,也是基于英伟达公开的数据,给出相关的预期的。英伟达是当前全球人工智能领域算力芯片的主要供应商,占到了约95%。
但无论人工智能领域的电力需求是否容易计算,这一领域的电力消耗在大幅增加都是不争的事实。而随着人工智能的发展,对电力的需求预计还将持续增加。