中新社东西问》为什么人形机器人将引发人类对自身的重新思考?(邵怡蕾)

资料图:工程师正在调试智能人形机器人。(中新网)

近年来,全球科技巨头纷纷入局人形机器人研发。接连亮相的人形机器人,让科幻故事逐步照进现实,不仅在技术层面上取得了重大突破,还在各个领域展现出巨大的应用潜力,其引发的伦理与法律思考也日渐受到关注。为什么人形机器人将引发人类对自身的重新思考?日前,在2024世界人工智能大会上,华东师范大学上海人工智能金融学院院长邵怡蕾教授就此接受中新社「东西问」专访。

现将访谈实录摘要如下:

中新社记者:您认为人工智能时代必须「两条腿走路」:「一条腿」是人工智能技术;「另一条腿」是人文社科对于人工智能社会的研究。应该如何理解?

邵怡蕾:人工智能对齐(the AI alignment problem)就是确保人工智能系统的目标、决策和行为与人类的价值观和利益相一致。人工智能对齐不仅需要技术进步,更涉及深层的伦理和道德问题,目前已成为人工智能领域中最为核心和紧迫的议题之一。

自诞生以来,人工智能的技术发展和技术迭代速度非常快。以ChatGPT为例,自2022年11月30日对外发布以来,它「成长」的速度甚至不是以月,而是以天计的。人工智能技术发展的「这条腿」无疑是长得很快的,但与之相对应的「另一条腿」——人文社会学科对人工智能社会的研究也需快速跟上。「两条腿」同步成长,我们才能更稳健地迈入人工智能时代。

如果说,人工智能是刚出生的「孩子」,人工智能研究者则是「父亲」的角色:从技术层面鞭策它「更快、更强」。然而,要培养出「健全的小孩」少不了「母亲」的角色。如何和人类社会相处?如何和人类更好地「沟通」?这是人文社会学科需要「教会」人工智能的。

实际上,科学界和人文社会学界已意识到这一需求。许多人工智能领域的专家发现,在研究中遇到的许多问题不仅仅是技术层面上的问题,更是社会学、人类学,甚至是哲学层面的问题。所以,人工智能研究人员开始向人文社会学界寻求支持。比如,在技术发展引发的生产力迭代的进程中,如何维护人类社会的公平?如何保护人们生活的隐私?对于人文社会学科这些并不是新问题。100多年来,这些问题已经在人文社会学科中被广泛讨论,并产出了一系列的理论体系和架构。

我们很欣喜地看到,近年来,人工智能研究人员和社会学家有了更多的合作,许多人工智能项目在研发阶段就融入了人文社会科学的团队成员。如同一个小孩在成长的「家庭」里既有「爸爸」也有「妈妈」。人工智能正在经历从「更快、更强」的技术进步,向着社会性和情感性转向。

资料图:一款人形机器人在搬运物品。(中新网)

中新社记者:人工智能的发展又将对人文社科的研究领域产生何种影响?

邵怡蕾:显而易见的是,人工智能可以帮助社会科学研究者节省大量的时间。比如,社会科学研究者原先用于查找资料、整理文献的时间就被解放出来了,这些时间可以被用于思考更深层次的问题。

相较于人工智能,人类个体的学习时间,涉猎的知识领域都十分有限。人工智能可以帮助社会科学研究者发散研究思路,帮助人们进行跨学科的交叉研究。距离越遥远的学科,连接起来之后往往能碰撞出非常新颖的观点和成果。「找到不可能的链接」——在我看来,这是人工智能对于学者而言最大的帮助。有了人工智能的「加持」,学者的研究角度、思维空间、辅助工具都将获得提升,学者的工作将更有创造性,远距离学科间的「化学反应」也会「火花四射」。

归根结底,从目前的发展成果来看,人工智能仍然是一个被动的辅助工具。即便通过海量计算,人工智能可以提供上千个「答案」,但引出「答案」的「问题」仍需人类提出,是人类的「问题」让人工智能把某一个「答案」实相化。人类掌握着探索的主动权,人工智能的学习也是来自于人类的主动探索。在生成式人工智能的语境中,没有人类的prompt(提示)人工智能就不会生成,当然,生成的数据又会再次「反哺」人工智能,让它再次学习。随着人工智能在各个领域的运用,我们的关注点可能会从技能——比如会做PPT、会写论文等,转移到其思想性和创造性。对于这一趋势,我们只能适应,因为技术发展「开弓没有回头箭」。

同时,人工智能技术的发展也为人文社会学科引入了新的议题和挑战。例如,人工智能应该被定义为人还是物?我们对人工智能的定义不同,会直接影响我们关于它的伦理准则和法律准则。人工智能是工具还是伙伴?实际上,这一界定在人工智能研究领域也没有达成一致,争论和分歧一直存在。由此可以延伸出更多需要讨论的话题:如果人工智能被视作「伙伴」,我们能不能让人工智能来参与社会治理?如果人工智能只是「工具」,人类的隐私是否可以毫无保留地暴露给人工智能?而对此持有不同意见的人,又如何和平共处?如何在分歧中维系社会的平衡?

这些都是和人文社会学科相关的问题,也是人类在此前从未面临的挑战,而这些问题都需要人文社会学科与人工智能学家一起回应。

资料图:人形机器人上演「劲歌热舞」。(中新网)

中新社记者:为什么人形机器人将引发人类对自身的重新思考?

邵怡蕾:在2024世界人工智能大会上,人形机器人「十八金刚」集体亮相引发广泛关注。然而,人形机器人目前还无法如同科幻片中那样无缝接入人类生活。

从感知、认知、行为三个维度来观察,现阶段,人工智能已在前两个维度做得非常好了,能够将感知和认知能力搭载到机器人平台上。然而,以大语言模型为基础的人工智能与机器人平台的合作是否能突破行为能力,仍然是未知数。

如果未来人形机器人真能像科幻片里那样和人类共同生活,一定会引发大量的伦理问题。

卡尔·波普尔在《客观的知识》一书中提出了他的「三个世界」的理论:世界1是物理客体或物理状态的世界;世界2是意识状态或精神状态的世界;世界3是思想内容及其物质化而形成客观内容的世界。

现在的人工智能已能覆盖世界1和世界3,它能反思自己的行动,还可以进行自主规划。但人工智能目前还没有涉足世界2即我们的心理世界,为什么人工智能无法学习人类的心理世界?因为心理世界无法被描述,无法描述的事情是人工智能学习的壁垒。

也正是因为人工智能没有世界2,它的「承受能力」要比人类强很多。假设在未来,人形机器人真的走进了人类的日常生活,人形机器人的表现可能会比人类更「优秀」——因为它不知道什么是烦,感受不到痛苦,也没有负面情绪。那么,一些弱势群体,比如老人和小孩,对于这么一位拥有无限耐心的照顾者,可能会产生情感依赖。

从另一个角度而言,如果我们作为儿女、作为父母的角色,可以被这样一位拥有无限耐心的照顾者所替代,我们是不是应该反思,作为人类的我们给自己的家庭成员提供了什么?又如何去体现我们陪伴的独特性?

尽管按现有的发展趋势预测,世界2对于人工智能是一项极高的壁垒。假如有一天,人工智能也拥有了心理世界,也能觉得烦、感到痛,我们就需要重新审视和人工智能的伦理关系——面对这么一位高智能,有心理活动的人造物,它是物,还是「人」呢?这也会引发人类对于自身定义的反思——究竟什么才是人?

受访者简介:

邵怡蕾,普林斯顿大学计算机科学博士,华东师范大学上海人工智能金融学院院长。邵怡蕾曾于2021年至2023年担任国际人工智能联合会(IJCAI)中国办公室秘书长,并曾在高盛集团纽约总部任职。邵怡蕾关注人工智能技术在金融领域的应用,以及人工智能技术的伦理与治理等问题。

(本文来源:中新社「东西问」专栏,授权中时新闻网刊登)

※ 以上言论不代表旺中媒体集团立场※