钻研AI 如履薄冰
(图/Freepik)
最近火红的AI议题就是OpenAI执行长的去职和复职,牵涉其中的关键之一是OpenAI所进行研发的新一代AI系统,代号Q*。近期关于神秘的Q*AI系统的猜测凸显了人们对AI进展的兴奋和谨慎,虽然详细资讯仍然有限,但Q*似乎指向具有更先进推理和解决问题能力的AI系统,但是关于这种强大AI的安全性和伦理性仍然非常令人担忧。
Q*被描述为一个能够解决基本数学问题的系统,超越了现有AI模型的能力,可能在规画、推理和处理复杂的多步骤任务等更强大的技能。Q*似乎能够解决以前没有见过的数学问题,路透社表示该系统可以执行「与小学生水准相当的数学问题」。
数学和解决问题的能力将是AI的一个飞跃,数学需要理解问题,找出解决问题的步骤,并进行计算,它更接近人类认知和推理。当前的大型语言模型在处理长时间、多步骤的数学问题时缺乏「外部的草稿空间」(类似人类的计算草稿纸),Q*可能采用创新技术将问题分解,让模型生成多个可能解决方案的方法,再用另一个「验证器」模型来评估这些解决方案。
但仍然存在关键障碍,如整合实现无监督学习和在解决问题时即时学习的能力。随着AI发展出目前仅供人类拥有的能力,责任和关切问题也随之而来,担心扩展的AI能力可能会导致失业和偏见的扩散。
因此,许多人敦促要谨慎行事,首要任务必须是充分的安全预防措施和最高水准的道德实施,与其过度炒作理论上的能力,焦点应始终放在负责任的AI,要被证明是安全和可靠的。
看到这些问题,欧盟立法者最近已就监管AI的立法条款达成一致,推动制定世界上对AI技术发展最严格的监理。这是一项历史性的协议和里程碑,「AI Act」不仅仅是一本规则手册,它还是欧盟新创公司和研究人员引领全球AI竞赛的启动平台,大科技公司如何来配合和继续AI的军备竞赛,就有待时间来证明。
随着AI演算法变得更加自动和自治,设置保障措施的压力越来越大。在AI领域开辟新的道路要如临深渊如履薄冰,科技的突破如果不小心,会引入复杂的和不可预知的风险。因此虽然Q*既引起了对AI可能性的兴奋,也同时引起了对AI危险的担忧,明智的前进方式就是要继续追求AI的进步,但前提要始终立足于AI的安全和公共利益的伦理义务。(作者为台北商业大学前校长)