杂志精选》生成式AI造成「更真的假世界」 扭转需要全社会携手

ChatGPT的诞生,为人类社会带来了许多积极影响,有助于推动科技和文化的发展,提高人们的沟通效率和知识水平,推动社会的进步和发展,」问世四个多月的聊天机器人ChatGPT,谈起自己的存在,如此写道。(图/ 远见提供)

ChatGPT为人类生活带来便利性,却同时带来难以避免的危害。当这股网路霸权加剧冲击既有社会秩序,我们该怎么办?

ChatGPT的诞生,为人类社会带来了许多积极影响,有助于推动科技和文化的发展,提高人们的沟通效率和知识水平,推动社会的进步和发展,」问世四个多月的聊天机器人ChatGPT,谈起自己的存在,如此写道。

这段回答,显得过于乐观。历经连番追问,它才终于承认自己将带来的种种冲击,并坦言,要做出改善,必须集结全社会的力量,长期持续努力,一切并不容易。

ChatGPT的「自知之明」,实际上反映了许多人的担忧。

一如历史上每一次科技突破性进展,在提升生产效率、加速进步的同时,往往为原有秩序带来颠覆性转变,眼前这场AI技术革命,亦是所有人都无法回避的社会革命。

ChatGPT新霸权,学者忧心

「简单地说,我非常担心。」国立政治大学新闻系教授刘昌德直言,ChatGPT加快讯息被生产及传播的速度,加上人类往往会盲目认定新科技物中立客观,这对谣言、假新闻的散布,无疑形成更大的温床。

刘昌德还点出另一个微妙的心态,「大部分人并不是想要Google回答他们的问题,而是期待Google直接告诉他们怎么做。」他引述Google前老董施密特(Eric Schmidt)的名言,强调人都有惰性,而相较搜寻引擎在输入关键字后条列许多连结,如今ChatGPT则是直接「喂养」单一答案给使用者,大公司抓准使用者的痛点,也难怪许多人埋单。

这为人类生活带来许多便利性,但从另个视角出发,刘昌德担忧,当AI背后的训练资料集存在错误或偏见,可能为个人带来隐私及名誉的侵害;更进一步,还将形成一股「新霸权」,不断重复主流意识形态,连带使少数、非主流的小众意见受到更严重的打压,并不利于公民社会的正向发展。

国立清华大学通识教育中心教授林文源,也在亲身多次实测后,有了相似体悟,「从它的用语可以看出,里面大量使用中国资料。」

这意味着,若使用者并不清楚AI获取资料的来源,将在无形中受背后意识形态所操控。尤其各国发展AI的资源落差极大,「市场的垄断」更是对言论、生活方式,以及思想的进一步垄断。

林文源举例,过去社群媒体演算法形成同温层、操弄总统大选等现象已为人诟病,生成式AI的讯息传播方式、甚至造假能力,恐怕会让网路上的「分众」现象更加严重。若是个人无法意识这股霸权的存在,就可能陷入AI创造的、一个「更真的假世界」。

法律管得了人,管得了AI?

面对种种危害,让法律介入监管的诉求受到关注,但另一个问题也油然而生:法律管得了人,但管得了AI吗?

「我不认为法律管得了AI,这个期待太难了,」前行政院政务委员、理慈国际科技法律事务所共同创办人蔡玉玲指出,由于法律制定程序冗长,要应对快速成长、变化莫测的AI,可说是鞭长莫及。

除了立法不易,其二则是执行上的困难。

蔡玉玲在政务委员任内,曾负责处理Uber落地争议,该次事件涉及Uber是否该在台缴税、纳保,并为人身安全负责,避免其打着「共享经济」之名,为台湾社会带来乱象。耗时多年,双方才终于达成共识,有条件开放Uber落地。

刘昌德则以知名的「施建新案」为例。2008年,时任职棒米迪亚暴龙执行长的施建新无故被卷入打假球案,而后获判无罪确定,但搜寻引擎上仍流传其打假球的相关讯息,施建新于是主张「被遗忘权」向Google提告,全案直至去年6月,才获二审胜诉。

这些例子,凸显台湾跟跨国大企业交涉耗时费力,套用在现下情境,也是如此。

此外,蔡玉玲以生成式AI引发的著作权争议说明,目前法律上评判侵权与否的标准,包含是否为合理使用、著作间的相似性,但目前AI生成内容的过程与资料来源并不透明,在既有法规框架下,根本难以做出判决。

企业展开对话,负社会责任

或许法律不完全管得了AI,不过林文源认为,有些规范仍得建立起来。立法要求AI做出标示,便是其中一个做法。

「就像食品标示一样,AI本身就要标注自己怎么被生产出来、资料从哪里来,」林文源解释,「我们知道它的极限,才不会以为它无所不能,不会让某些族群因为它的限制而受到伤害。」

刘昌德也同意立法规范AI标示来源,此外他建议,若AI如同搜寻引擎般侵害个人名誉和隐私,产生「被遗忘权」的争议,还是应建立起补救措施,将伤害降到最低。

但,回归这股AI霸权的强大威力,微小的规范就算治得了标、也治不了本。刘昌德分析,问题并不出在科技本身,而在其背后的科技公司,若企业只以获利为目的发展AI工具,就容易忽视科技对社会文化造成的深远伤害。

「我们要节制的不是AI的影响力,而是节制资本在这里面的力量,」刘昌德点出关键,「企业不是不能获利,而是必须负起社会责任,在AI即将快速成长的转捩点,这是最重要的事。」

他认为,这些跨国科技公司应和社会开启两层次的对话。首先,是与各地公部门和民间团体的对话,比如,当碰上有争议的言论时,训练者不应以「内容审查」的形式,直接告诉AI谁是谁非,反而该让各方观点有碰撞的机会,进而提供AI较适当的内容。

其次,则是与内容产制者展开对话。如同全球各地媒体积极向Google、Meta等集结媒体内容而获利的平台业者协商,AI公司也该负起责任,透过奖励或补助机制,鼓励业者产制优质内容,才能促成好的产业生态系,防止低劣内容一再复制、生成,加剧对社会的危害。

或许对话过程将耗时费力,但也唯有如此,才能在有朝一日,让科技真正推动社会进展。

长期提倡「公共化AI」的林文源也指出,台湾虽难以复制大公司打造ChatGPT的模式,却具备活络的公民社会及高素质的工程师,加上近年政府开放资料、资料治理的概念都逐渐成形,在这股浪潮之下,能期待AI进一步落地,带来正向循环。

「解决AI带来的负面影响,需要全社会共同努力。只有通过合作,才能实现AI的可持续发展,以及对人类社会和文化的积极影响。」对此,ChatGPT也是这么说的。

本文作者:陈品融

(本文摘自《远见杂志4月号442期》)

《远见杂志4月号442期》