印度给“新生代”AI工具设限:发布前需得到政府许可

财联社3月4日讯(编辑 周子意)人工智能(AI)工具几乎不可能不出差错,有时它们可能向用户回复错误的答案。

对于此类状况,印度近日进行了明文规定,要求国内外科技公司在公开发布“不可靠”或正在试用的人工智能工具之前,寻求印度政府的批准,并指出它们也应该被贴上标签。

印度电子信息技术部在上周五(3月1日)发布的一份报告中表示,这些人工智能工具的使用,及其在印度互联网上对用户的可用性,都必须事先得到印度政府的明确许可。

该报告明确针对所有人工智能模型、大型语言模型、利用生成式人工智能的软件、以及任何目前正在测试、处于开发beta阶段或被认为不太不可靠的算法。

收紧监管

随着人工智能技术的扩散,世界各国都在竞相制定规范人工智能的规则,印度则是一直在收紧对社交媒体公司的监管。

这份报告强调,“确保印度互联网的安全和信任是政府、用户和平台的共同目标。”

不过,近日印度国内却发生了一件戏剧性的“事故”,印度总理莫迪似乎被谷歌的人工智能工具“针对”了,印度网民随即炸开了锅。

事件的起因是,2月末,一名网民在社交平台X上分享了Gemini对印度总理莫迪相关问题的回答,Gemini将莫迪与“法西斯”相关联,称莫迪实施的某些政策被一些专家认为具有法西斯主义性质。Gemini还举出例子,比如莫迪的一些政策涉及搞印度教民族主义、打压异见人士等。

一天后,谷歌回应此事称,该公司已迅速解决了这个问题,并表示该工具“可能并不总是可靠的”,特别是对于时事和政治话题。

随后,印度电子信息技术部副部长Rajeev Chandrasekhar在X上回应谷歌声明时态度强硬,称“安全与信任是平台的法律义务,‘对不起,不可靠’的回应不能免于法律责任。”

Chandrasekhar还对Gemini AI聊天机器人可能违反印度IT法律表示担忧。

对于如何避免人工智能工具在政治方面做出的错误回应,特别是目前正处于印度大选前的关键时期,上述这份报告还要求,这些人工智能平台需要确保其AI工具不会“威胁选举过程的完整性”。

尽管该建议不具有法律约束力,但Chandrasekhar部长强调,它标志着未来监管的方向。他还补充道,如果不遵守这一建议,这些人工智能平台可能会面临即将出台法律的监管。