我见我思-碳权世代 期待绿色AI演算法降临

黄仁勋在Computex的演讲时,介绍NVIDIA的各式新机器,由台湾的各家协力厂制作。绘图处理器(GPU)越叠越高,记忆体越放越大,机柜越排越多,做出了一个超大型GPU的超级电脑。这一切都是起因于去年OpenAI所推出的ChatGPT所造成的风潮。OpenAI发展通用型AI(AGI)。他所走的路线不是推出新演算法,而是加大原有演算法的规模。所以造就出大型语言模型的成果,很自然的,所需要的训练计算力也跟着大幅成长。

世界各国争相恐后地建立自然语言的AI对话能力,于是就有了AI机房的需求。跟着就需要大量的GPU,自然要耗费更多的电力。这GPU是委托台积电来生产的,生产晶圆要耗费大量电力,也消耗台湾相当比例的备援电力和大部分的绿电。就像虚拟货币比特币是吃电怪兽一般,大家看到它消耗了电力,但并没有实质有意义的成果产出。AI继续发展下去,未来它所需要的电力将比比特币大更多。

这一切的根源就在于AI目前所使用的技术。它并不像上世纪所用的专家系统一样,是由人类的经验所凝聚而成。而是用模拟人类大脑结构的类神经网路,利用机器学习的原理,自动根据预测的错误来调整参数,以得出正确答案。但整体调整的速度非常缓慢,需要使用大量的计算资源,也就是GPU加速器来加速。同时要耗费数周,甚至数月来训练,方有所成。

■No-GPU绿色AI演算法

才能跟上净零趋势

因为过去在各方面的表现亮丽,包括有影像识别,自动翻译,生成式绘图,于是人们就想到利用现有成果,直接堆叠更多的计算资源,来扩大它的使用范围。久而久之,GPU加速器的需求就爆炸式成长。

然而现在面对的是2050年的净零排碳大限,要积极地减少能源的消耗。这种AI爆炸性成长,却跟排碳的目标是背道而驰的。今天实在是到了需要改变的转捩点。我们不能只再偷懒地买更多机器,再放大规模来发展AI。而是要开始想如何才能让AI达到功能,但又不会消耗这么多的能源。答案很简单,就一句话,发展No-GPU绿色AI演算法。

从今天开始就先将GPU放到一旁,想一些新的演算法,不需要使用GPU,就可以达到相同的功能。语言模型其实就像背书,但现在的模型却需要用数百个参数来代表一个字,再加以运算。想一想搜索引擎,它也是背书,但它似乎不需要用这么多参数来运算,甚至还能够压缩资料,用更小的记忆体来存放。

聪明的学术界专家们,是否也能开始研究这种No-GPU绿色AI演算法,以应付将来2050年的净零排碳大限呢?