AI「新智慧演算」求突破瓶颈! 黄仁勋:发现第二扩展法则
▲辉达(NVIDIA)执行长黄仁勋。(图/路透)
记者张靖榕/综合报导
随着大型语言模型(LLM)规模不断扩大,OpenAI等人工智慧公司在追求更高效的AI模型过程中遇到挑战。这些公司正在探索、开发模仿人类思考的训练技术,帮助演算法进行运算。训练法的转变,可能改变AI竞赛的格局;挥达执行长黄仁勋此前也表示,发现推理阶段「第二扩展法则」,能大幅推进最新的AI晶片。
路透社报导,12位AI科学家、研究员和投资人透露,这些技术已应用于OpenAI最新发布的o1模型,可能重塑AI技术竞赛,并对能源、晶片类型等AI公司需求的资源产生深远影响。
广受热议的ChatGPT自2年前问世以来,科技公司普遍认为,透过增加数据量和计算能力来「扩展」现有模型,能够不断改进AI。然而,随着技术发展,一些AI领域的知名科学家开始质疑这种「越大越好」的模式;OpenAI与Safe Superintelligence(SSI)联合创办人苏茨克维尔(Ilya Sutskever)表示,透过「预训练」大规模未标注数据来理解语言模式的成果已经出现瓶颈。
苏茨克维尔早期即主张透过扩大数据量与计算资源来推动生成式AI的进步,这一理念最终催生了ChatGPT。然而,苏茨克维尔已于今年离开OpenAI,创立SSI,并致力于探索新的AI扩展方式。他表示:「2010年代是扩展的时代,而现在我们回到了探索与发现的年代。大家都在寻找下一个突破点。如今,扩展正确的方式比以往更重要。」
根据3位知情人士的说法,主要AI实验室的研究人员在研发超越GPT-4的下一代大型语言模型时,遇到了延迟和成果不如预期的困难。这些挑战反映出只依靠更大的数据量与计算能力并不能一直持续下去,促使AI领域重新思考技术创新的新方向。
SSI现正致力于开发一种替代性的方法,虽然苏茨克维尔并未详细透露该方法的内容,但这一探索可能会为AI技术的未来带来新的可能性。随着竞争加剧,各大AI公司也面临资源需求的压力,从能源到专用晶片的需求持续攀升,而这些资源的合理分配成为未来AI竞赛的一大关键。
此一趋势可能改变AI硬体需求格局,目前挥达的AI晶片在训练市场占据主导地位,但在推理市场将面临更多竞争,对此,该公司对新技术的需求保持乐观。执行长黄仁勋10月在印度一场会议上也表示,辉达发现了推理阶段的「第二扩展法则」,为该公司最新AI晶片Blackwell的需求带来了巨大提升。