別跟聊天機器人分享個人資訊!專家警告1關鍵:AI可以被操縱

网路安全专家对人工智慧(AI)聊天机器人相关的潜在风险发出了严厉警告,建议用户尽量避免与这些数位助理分享个人资讯。图/本报资料照片

网路安全专家对人工智慧(AI)聊天机器人相关的潜在风险发出了严厉警告,建议用户尽量避免与这些数位助理分享个人资讯,尽管OpenAI 的 ChatGPT、Google Gemini 和微软的 Copilot 等AI聊天机器人非常受欢迎,在全球有数千万用户使用,但伦敦网路弹性中心(Cyber Resilience Centre for London)执行长Simon Newman警告说,这些技术存在重大隐患。

「掌握了欺骗的技巧」

据报导,Newman表示,即使没有明确的程式设计,聊天机器人已经「掌握了欺骗的技巧」,并可以「欺骗我们」,而其他网路专家,也曾在对话中发现了AI操纵的微妙迹象,警告用户应该对此保持警惕,并建议用户谨慎行事,仔细检查聊天机器人提供的资讯,也不要向AI聊天机器人透露某些内容,并多次强调了验证线上资讯的重要性。

AI机器人的答案令人信服

一个主要的担忧是,AI聊天机器人可能会给不懂技术的人带来潜在的困惑,即使是那些精通技术的人,也可能会忘记他们正在与机器互动。Newman表示,「聊天机器人中使用的技术正在迅速改进,但正如我们所看到的,他们有时会被操纵提供假资讯,且他们给出的答案往往非常令人信服。」

犯罪份子入侵

最重大的风险可能是网路犯罪份子的入侵。Newman就警告说,「与任何线上服务一样,人们必须注意向聊天机器人提供哪些资讯,因为它们不能免于受到网路犯罪分子的攻击,并且可能会鼓励用户共享敏感的个人资讯,然后再将这些资讯交给犯罪份子,用于实施诈欺。」

没有情商的AI

Newman解释说,「为改善客户体验并节省成本,包括大多数银行在内的许多公司,都正在用线上聊天机器人取代人工客服,但这些机器人缺乏情商,使它们的反应方式不敏感,有时甚至是粗鲁的,这对于患有精神疾病的人,或习惯于与人类代表交谈的老一代来说,尤其具有挑战性。」

《原文刊登于合作媒体科技岛,联合新闻网获授权转载。》