中国新型计算架构受大脑启发,接近通用人工智能

中国的科学家们创造了一种新的计算架构,该架构在训练先进的人工智能(AI)模型时能够耗费更少的计算资源——并且他们希望有朝一日这能通向通用人工智能(AGI)。

当今最先进的 AI 模型——主要是像ChatGPT 或 Claude 3 这样的大型语言模型(LLM)——使用神经网络。这些是分层排列的机器学习算法集合,以类似于人脑的方式处理数据,并权衡不同的选项以得出结论。

LLM 目前存在局限性,因为它们无法超出训练数据的范围进行执行,也不能像人类一样出色地推理。

然而,AGI 是一个设想中的系统,能够进行推理、情境化处理、编辑自身代码,并理解或学习人类能够完成的任何智力任务。

如今,创建更智能的人工智能系统得依靠构建规模更大的神经网络。一些科学家认为 如果神经网络的规模足够大,就有可能催生出通用人工智能。但鉴于能源消耗以及对计算资源的需求也会跟着增加,这种做法可能不太实际。

要实现未来的通用人工智能系统,需要新的架构或者不同计算架构的组合。在这方面,8 月 16 日,发表在《自然计算科学》杂志上的一项新研究提出了一种受人类大脑启发的新型计算架构,有望解决扩大神经网络规模所面临的实际问题。

“人工智能(AI)研究人员目前认为,构建更通用模型问题的主要方法是大型 AI 模型,现有的神经网络在深度、规模和广度上不断拓展。我们把这种方法称作具有外部复杂性的大模型方法,”科学家在研究中说道。“在这项工作中,我们认为还有另一种被称为具有内部复杂性的小模型的方法,它能够用于找到将丰富属性融入神经元从而构建更大且更高效的 AI 模型的合适路径。”

科学家在一份声明中说道,人类大脑有 1000 亿个神经元和近 1000 万亿个突触连接——每个神经元都受益于丰富多样的内部结构。然而,它的功耗仅仅约为 20 瓦。

为了模仿这些特性,研究人员采用了一种侧重于“内部复杂性”而非扩大人工智能架构那种“外部复杂性”的方法——其理念在于,专注于让单个人工神经元变得更复杂会带来更高效和强大的系统。

他们构建了一个具有丰富内部复杂性的霍奇金 - 赫胥黎(HH)网络,其中每个人工神经元都是一个 HH 模型,其内部复杂性能够扩展。

霍奇金 - 赫胥黎是一种计算模型,根据 2022 年的一项研究,它模拟神经活动,并在捕捉神经元尖峰(即神经元相互交流所用的脉冲)方面表现出最高的准确性。2021 年的一项研究表明,它对于代表真实神经元的放电模式具有很高的合理性,因此适用于对旨在复制人类认知过程的深度神经网络架构进行建模。

在该研究中,科学家们证明了这种模型能够高效、可靠地处理复杂任务。他们还表明,基于这种架构的小型模型表现与大得多的传统人工神经元模型一样好。

尽管通用人工智能是科学仍未达到的一个里程碑,但一些研究人员表示,人类构建出第一个这样的模型只是时间问题——尽管对于如何达成这一目标存在不同看法。例如,SingularityNET 已经 提议构建一个超级计算的网络 ,该网络依赖于不同架构的分布式网络来训练未来的通用人工智能模型。