「人工智慧教母」李飛飛:就算參數再多 AI也難獲得感知能力

近期透露创立一家人工智慧新创,聚焦如何让人工智慧能比拟人脑对于空间内所有细节的预判及洞察能力之后,「人工智慧教母」李飞飞近期在其个人「X」页面分享其与史丹佛大学人本人工智慧研究中心 (HAI)共同主任教授John Etchemendy合著论文,其中主张大型自然语言模型纵使有再多参数支撑,依然无法像人脑般能对事物有所感知。

换句话说,目前被视为人工智慧主流发展技术的大型自然语言模型,依然无法像人脑能有主观感知能力,仅能依照学习训练结果完成执行任务,但实际上并非以经验感知方式做出判断。

例如超级电脑深蓝能以人工智慧运算方式在棋赛竞赛击败人类棋王,但如果当下所处环境发生火灾,深蓝不会因为火灾发生而停止下棋,但人类会因为其他因素产生不同感知判断。

从其他角度来看,人类在下棋过程可能会透过其他取巧、心理等方式推估对手可能采取进攻策略,或是设法让对手误判自己下棋策略,而超级电脑主要还是会以过往学习棋路、分析可行下棋方式,与人脑思考方式可能会明显不同。

李飞飞更强调,人脑在思考「我饿了」的背后可能会伴随一连串的生理及心理反应,而对超级电脑而言则无法拥有此类主观感受与经验,因此难以做出与人类相同的决策反应。

在李飞飞的看法里,当前人工智慧技术主流采用的大型自然语言模型,基础建立在借由学习人类自然语言表达内容,进而从中更理解使用者以相同自然语言输入指令、说明内容,借此做出更正确的反应,但实际上依然是以过往人工智慧方式做出反应,只是整体反应速度变得更快,更能做出正确、符合预期的解答,甚至能提供更丰富、完整参考内容,不过要能跟上人脑反应表现,依然存在相当大的差距。

因此在李飞飞创立的人工智慧新创,目标便是计划打造能仿照人脑,可对于空间内所有细节进行预判及洞察的人工智慧系统,借此让人工智慧技术能有更大发展突破。

不过,许多市场看法认为,让人工智慧获得「感知能力」,其实相当危险,其中可能因为人工智慧产生「私欲」,进而产生对人类不利的发展局面,甚至日前有也看法认为OpenAI内部已经创造具感知能力的人工智慧技术,或许将带来更严重的影响。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》