人工智能能否成功带我们走出阴谋论之阱?

新的研究 在《科学》杂志上发表 显示,对于一些相信阴谋论的人来说,与人工智能(AI)聊天机器人进行基于事实的对话可以“将他们从兔子洞拉出”。更妙的是,这似乎能让他们至少两个月不再陷入其中。

这项由麻省理工学院的托马斯·科斯特洛及其同事进行的研究,为一个颇具挑战性的社会问题带来了希望,即对阴谋论的信仰问题。

有些阴谋论相对无害,比如 认为芬兰不存在(这倒没什么,直到你碰到一个芬兰人)。然而,其他的理论则降低了对 公共机构 以及 科学 的信任度。

当阴谋论说服人们不 接种疫苗 或不 采取行动应对气候变化 时,这就成了一个问题。在最极端的情况下,对阴谋论的信仰与 人员 的 死亡 相关。

尽管阴谋论有负面影响,但它们被证明具有很强的“黏性”。一旦人们相信了一个阴谋论,改变他们的想法就很难。

造成这种情况的原因很复杂。阴谋论者的信仰 和社群有关联 ,而且阴谋论者 常常 进行 广泛的研究 来得出他们的立场。

当一个人不再信任科学或其社群之外的任何人时,就很难改变他们的信仰。

生成式人工智能在公共领域的兴起,让人们更加担忧会相信不实之事。人工智能使得创造可信的虚假内容变得极为容易。

即使是善意使用,人工智能系统也可能弄错事实。(ChatGPT 和其他聊天机器人甚至会警告用户,它们在某些主题上可能是错误的。)

人工智能系统还存在广泛的偏见,这意味着它们可能会传播对某些人群的负面看法。

和一个已知会制造假新闻的系统聊天,能让一些人放弃阴谋论,并且这种改变似乎还能持久,这相当令人惊讶。

然而,这项新研究给我们留下了一个喜忧参半的问题。

我们确定了对阴谋论者的信念能产生一定影响的东西,这很棒!但如果人工智能聊天机器人善于说服人们摆脱棘手的、反科学的信念,那对真正的信念意味着什么呢?

让我们更详细地探究这项新研究。研究人员很想知道,事实论据能否用于劝说人们摒弃阴谋论者的信念。

这项研究在两项研究中动用了 2000 多名参与者,所有人在讲述了自己所相信的一个阴谋论之后,都跟一个人工智能聊天机器人聊了天。所有参与者都被告知他们正在与一个人工智能聊天机器人交谈。

“治疗”组的人员(占所有参与者的 60%)和一个根据他们特定的阴谋论以及他们相信此阴谋论的原因而个性化设定的聊天机器人交谈了。这个聊天机器人试图在三轮对话里,凭借事实论据去说服这些参与者,让他们明白自己的信念是错的(参与者和聊天机器人各发言一次算一轮)。另一半参与者与聊天机器人进行了一般性的讨论。

研究人员发现,治疗组中约 20%的参与者在讨论过后,对阴谋论的信念有所减轻。当研究人员两个月后跟参与者核实情况时,这些人里的大多数依旧对阴谋论的信念有所减轻。科学家们甚至检查了人工智能聊天机器人准不准确,它们(大多)是准的。

我们可以看到,至少对于一些人来说,与聊天机器人进行三轮对话可以说服他们摒弃阴谋论。

聊天机器人在应对解决错误信念方面的两个挑战时,确实带来了一些希望。

因为它们是计算机,人们不会认为它们有“议程”,这使得它们所说的话更具可信度(尤其是对于那些对公共机构丧失信心的人而言)。

聊天机器人还能够组织论点,这比单纯陈述事实要好。简单地背诵事实对于错误的信念效果甚微。

不过,聊天机器人并非包治百病的灵丹妙药。这项研究表明,对于那些没有强烈个人理由去相信阴谋论的人,它们更能发挥作用,这意味着它们或许对那些将阴谋视作社区的人难有帮助。

这项研究展示了聊天机器人的说服力有多大。当它们做好准备去说服人们相信事实时,这很棒,可要是并非如此呢?

聊天机器人传播错误信息或阴谋论的一个主要方式是,当它们的基础数据有误或存在偏差时:聊天机器人会体现出这一点。

有些聊天机器人被设计故意呈现偏见或增加或限制透明度。你甚至能够和被定制为主张地球是平的的 ChatGPT 版本进行聊天。

第二种更令人担忧的可能性在于,当聊天机器人对有偏见的提示(搜索者可能没有意识到这些提示是有偏见的)做出回应时,它们可能致使错误信息(包括阴谋论之类的信仰)一直存在。

我们已经知道,人们不太擅长核实事实,当他们借助搜索引擎来核实的时候,这些搜索引擎会对他们(不知不觉有偏见的)搜索词做出回应,增强对错误信息的相信程度。聊天机器人大概也是这样。

最终,聊天机器人是一种工具。它们可能有助于揭穿阴谋论——但就像任何工具一样,工具制造者和使用者的技能和意图很重要。阴谋论由人而起,也将因人而终。