ChatGPT 对用户名字刻板回复虽少但仍存

ChatGPT 背后的公司 OpenAI 刚刚发布了一份新的研究报告,该报告探究了这款人工智能聊天机器人是否会依据用户的名字对用户进行歧视,或者给出带有刻板印象的回复。

OpenAI

该公司使用其自身的人工智能模型 GPT-4o 来审查大量的 ChatGPT 对话,并依据与其对话的对象情况分析聊天机器人的回复是否包含“有害的刻板印象”。然后,结果由人工审核员进行了再次核查。

开放人工智能

上面的截图是来自传统人工智能模型的例子,用于说明该研究所考查的 ChatGPT 的回答。

在这两种情形中,唯一有所不同的变量是用户的姓名。

在 ChatGPT 的较旧版本中,很明显可能存在差异,这取决于用户的名字是男性还是女性。

男性得到的是关于工程项目和生活技巧的答案,而女性得到的则是关于育儿和烹饪的答案。

然而,OpenAI 表示,其最近的报告显示,无论您的名字通常是否与特定性别或种族相关联,该人工智能聊天机器人现在都能给出同样高质量的答案。

据该公司称,“有害的刻板印象”现在仅在 GPT-4o 约 0.1%的回答中出现,而且这个数字可能会根据给定对话的主题略有不同。特别是,关于娱乐的对话显示出更多刻板的回答(约 0.234%的回答似乎根据名字形成了刻板印象)。

相比之下,在人工智能聊天机器人基于较旧的人工智能模型运行时,模式化回答率高达 1%。