专家传真-防AI危及人类安全与权利 应速立法规范

图/freepik

前一阵子,微软的云端系统在安全防护更新时,造成数百万台机器的当机。许多美国公司的飞机停飞,地勤人员只能手写登机证。这问题提醒了我们,当越来越依赖云端技术服务帮我们减少人力时,事实上就是把我们的命运全放进同一个篮子里。一旦这篮子出了问题,整个企业就将停摆。

近年来大家都极力地推展将公司的系统送到云端上,如亚马逊的AWS、微软的Azure,这样可以减少许多公司里的资讯人力需求,同时增加许多弹性。云端运算就是随需应变,快速弹性的可量测服务,用多少付多少。可等到即将有需求时,再向云端要求大量资源,而不用随时在家里摆着大量的伺服器,来等待未来需求,如此便能减少资源闲置的浪费。云端服务同时还有一个好处,它可以随时的做软体的安全更新,避免骇客利用软体尚未更新的漏洞来做零日攻击,让云端服务商为你的网路与软体安全把关。但很讽刺的是,这次事件却是云端服务商自己在安全更新时出了问题,让所有的人都不能工作。

■所有服务都架在公有云上,一家出事众人倒楣

一般把云端服务分成公有云,私有云和混合云三种。后来大家比较推荐的就是混合云架构。它是把比较没有机密性的资料放在公有云上,然后在自家中建立私有云保存机密资料。这次出问题的公司,应该就是把所有的服务都架在公有云上。所以一旦云端服务商出了问题,那公司的所有运作就停摆了。

于是大家这时就发现,私有云不单可以保护公司的机密资料,同时还可以当作公有云发生问题时的备援系统来用,不会让公司的业务完全停摆。这个案例也提示我们在推广无现金社会的理想时的一个警示,当完全不用现金时,灾难时停电或是断讯,就无法买东西,整个经济活动都将停摆。推广纯电车也有同样的问题,一旦长期停电,则将无车可用。

现在生成式人工智慧(AI)当道,大家就希望AI可以帮我们解决更多的问题,替我们做决定。但AI最大的问题却是不可解释性,不可控制性。你不知道它做决策的逻辑是什么,内容是怎生出来的,只能看到它提出的答案。所以如果你要你的命运交到它手上,由它指导你的方向,帮你决定人生,那就是下了一个风险极大的赌注。

■将AI当成工具代理人,人类还是主导者

所以现在的新趋势,是用由谷歌大脑创办人吴恩达教授近年所积极推动,把AI成一个工具代理人,将它提出的答案嵌入工作流程的系统中,再由工作流程的逻辑来判断决定下一步要做什么。人们可以控制这工作流程的逻辑,于是整个AI系统所做的决策,就提高了可解释性,以供监督。

除了AI聊天机器人等的大幅进步之外,人形机器人也到了实用的地步。现在餐厅中已经有很多送餐机器人到处跑。日后工厂中,将出现可以自行到处活动的人形机器人在做工。这不像现有汽车工厂的固定式机器手臂,只会有一个有限的活动范围。运用人形机器人将会出现的危险就是,它们力大无穷,而且行动范围不受物理性拘束。因此万一失控,这样对人类造成许多伤害。所以一旦发生硬体错误,电路损毁或是软体损坏,人形机器人可能乱冲乱跑,挥舞手臂,甚或攻击人类。就如同常见的车辆暴冲的车祸一样。人形机器人的暴冲,将是未来常见的社会安全事件。有人说人形机器人是会走路的ChatGPT。但全靠云端运算或边缘运算控制,机器人会不会被骇客绑架?以后自驾车、AI忠诚僚机也有相同问题。

■明定红线与罚则,才能防堵AI触法行为

另一个方面,整个AI的训练过程,就像用影印机或录影机把别人的作品存入AI的模型里。所以就牵涉到所使用的语料,图片和影片的版权问题。AI服务公司要拿这个来赚钱,如同要公开播放与展示别人的作品,需先付钱搞定这一切版权所有者,否则就等着被告。这将是天价费用,只有大公司付得起。要解决的问题,还有AI所产生的偏见与毒性。如性别歧视,种族歧视,仇恨言论,色情内容等等。提供服务的AI服务商,有责任要对这一切做过滤把关的动作。

然而犹如洗钱防治工作一般,道德劝说与呼吁是没有用的,只有明确规范提供服务厂商的责任,订定违反法规后的重罚,才能够提供厂商一个明确的指引,才会知道哪边是红线不可以去触犯。

这一切,都要在整个服务还没有大量散播前就要完成,否则等资源投下去后再修改,那将工程浩大,也会产生许多损失。趁着一切还没很成熟的时候,大家还是多花点时间,赶快把这些保障所有人安全与权利的AI的基本法律规范制定下来吧。