AI晶片如何让美国电网瘫痪?微软工程师爆料:只要10万片就完了

AI运算能力大增,对电力供应需求也令担忧。(示意图/达志影像/shutterstock)

全球掀起人工智慧(AI)热潮,也让AI进化成吃电巨兽!一位微软工程师爆料,如果在美国同一个州部署超过10万片H100 GPU高阶晶片,就会导致电网瘫痪。显见AI运算速度愈快,电力供应需求暴增将成为令人担忧的问题。

财联社报导,人工智慧聊天机器人ChatGPT开发者OpenAI下个版本GPT-5模型尚未面世,似乎已开始着手训练GPT-6,不过电力可能成为一个「卡脖子」难题。

AI新创公司OpenPipe创办人Kyle Corbitt在社群平台X上透露,自己最近与一位负责GPT-6训练集群项目的微软工程师讨论新版本中遇到的问题,这位工程师抱怨,不同区域GPU之间部署infiniband(无线频寛)级别链接,实在非常痛苦。

Corbitt接着问「为何不将训练集群集中同一个区域?」这位微软工程师回答,有尝试过,但是如果在一个州放置超过10万片H100 GPU,电网就会瘫痪。

10万片H100是什么概念?据市场调查机构Factorial Funds的报告显示,OpenAI的文字生成影片模型Sora在高峰期间需要72万片H100,依该工程师说法,这个数量足以让美国7个州的电网崩溃。

Corbitt指出,随着越强大的AI制造出来,开发这些模型的成本也越来越高,并面临电力供应所带来环境挑战。

OpenAI 执行长奥特曼(Sam Altman)曾为AI的电力需求「叫苦」。在年初的达沃斯论坛上,他表示,AI发展需要能源方面的突破,AI将带来远超预期的电力需求。

有数据显示,ChatGPT每天需要消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭日用电量的1.7万多倍;至于搜寻巨头谷歌,若在每次用户搜寻中都调用AIGC,年耗电量将增至290亿千瓦时,这甚至高于肯亚、瓜地马拉等国1年的用电量。