ChatGPT每日消耗50万度电 为美国家庭逾1.7万倍

ChatGPT面世两个月后即拥有1亿个活跃用户,而且用户数仍不断增长。美国杂志《纽约客》报导指ChatGPT每天可能消耗约50万度电,才能回应用户约2亿个使用请求。按2022年美国家庭平均每天使用29度电计算,即高达17,241倍。

由于ChatGPT背后的生成式AI展示出惊人潜在商机,吸引科技业纷纷投入这个领域。专家估计若生成式AI被进一步使用,其耗电量可能会更惊人。

荷兰央行数据科学家德弗里斯(Alex de Vries)估计若ChatGPT功能被整合在谷歌(Google)的搜寻引擎里,谷歌每年耗电量将高达290亿度电,超过肯亚全国一年用量。

德弗里斯评估整个AI产业在2027年,全年总耗电量可能在850亿度电到1,340亿度电之间。以区间最高值计算,光AI一个产业就占全球总耗电量比率达0.5%。

他认为解决AI惊人耗电量是首要任务。若没有足够洁净供应,去让AI碳排放受到控制的话,全球就要付出极大的环境污染代价。

目前科技巨头积极让AI与云端运算结合来提供创新应用,为个人和企业创造更多价值,但这被视为令数据中心耗电量持续爆增的主因,让人担心给环保带来灾难性破坏。

国际能源总署(IEA)指数据中心和传输网路,占全球总耗电量比率已分别达到1.5%。其评估科技业要训练1个AI模式,每年的耗电量就是一般家庭的逾100倍。目前生产洁净能源来供应AI的速度,根本追不上AI的发展。

虽然亚马逊、微软和谷歌等「超大规模云端用户」(Hyperscaler)都增加使用风力发电和太阳能等再生能源,为自家营运设下减碳目标,但在积极应用AI的情况下,专家认为这些科技巨头根本很难完全达成自己设下的碳排放标准。