谷歌学术现涉人工智能研究论文,删之或更糟

涉嫌使用人工智能的科学论文正在谷歌学术中出现,谷歌学术是最受欢迎的学术搜索引擎之一。

本月在哈佛肯尼迪学院的《错误信息评论》上发表的一项研究表示:“学术期刊、档案和知识库中明显使用生成式人工智能生成的可疑研究论文数量越来越多。”

该研究称:“它们通常借助广泛可用的通用人工智能应用程序创建而成,极有可能是 ChatGPT,并且模仿科学写作。”

ChatGPT 是OpenAI开发的一款聊天机器人,于 2022 年推出。这款聊天机器人迅速走红,用户开始起草从锻炼计划到饮食计划的各种内容。Meta和谷歌等其他公司现在也有了自己竞争的大型语言模型。

研究人员通过分析从谷歌学术抽取的显示存在 GPT 使用迹象的科学论文样本,收集了相关数据。

具体而言,这些科学论文包含了被视作 ChatGPT 或类似程序常见回复的短语,如“我无法获取实时数据”和“截至我上次知识更新”。

从这个样本当中,研究人员确定了 139 篇在谷歌学术上被列为常规结果的“可疑”论文。

“这些由 GPT 编造的论文,大多出现在未编入索引的期刊和工作论文里,但也有一些情况包括在主流科学期刊和会议论文集中发表的研究,”该研究表示。

依据该研究,许多研究论文涉及健康、计算和环境等具有争议性的话题,而这些话题“容易出现虚假信息”。

研究人员虽承认这些论文或许会被删除,却警告称,如此操作可能会助长阴谋论。

“正如新冠疫情期间所谓反疫苗运动的兴起以及对气候变化的持续阻挠和否认所表明,撤回错误出版物往往会助长阴谋,增加这些运动的追随者,而非阻止它们,”该研究称。

谷歌和 OpenAI 的代表未对《商业内幕》的置评请求作出回应。

该研究还指明了使用 GPT 来创作“虚假的科学论文”这一“日益常见”的决定所带来的两大主要风险。

“首先,大量虚构的‘研究’渗透进研究基础设施的各个领域,有可能让学术交流系统难以承受重负,并危害到科学记录的完整性,”该研究称。

第二个风险涉及“看似科学的内容实际上是通过人工智能工具以欺骗手段创建的,并且被优化以便能被公开可用的学术搜索引擎(尤其是谷歌学术)检索到的可能性增大。”

“无论这种可能性有多小,这种可能性以及对其的认知都有可能破坏对科学知识信任的根基,并带来严重的社会风险,”该研究称。