AI失控的赛局
(图/达志影像)
去年年底,ChatGPT横空出世,受到的关注浪潮,重新点燃了科技公司之间开发和部署类似AI工具的军备竞赛。OpenAI、微软和谷歌处于这一趋势的浪头,但IBM、亚马逊、大陆的百度和腾讯也在开发类似的技术,一串的新创也在开发各种使用生成式AI的工具。
一些人工智慧专家越来越担心AI工具所产生的偏见、传播虚假资讯以及对消费者隐私的影响,这些工具也引发了关于AI如何消灭工作、帮助学生作弊以及改变我们与科技的关系等问题。因此最近由一些科技界知名的人士领头(包括苹果电脑创办人之一沃兹尼亚克和特斯拉创办人马斯克)发表一封公开信,恳请所有人工智慧实验室暂停至少6个月对AI训练的工作,因为AI会对社会和人类带来「深远的风险」。
公开信警告说人工智慧正在「陷入一场失控的竞赛,部署越来越强大的数位智慧,没人能够理解、预测或可靠地控制。」这封信发表的时间距离OpenAI宣布一个更强大的GPT-4版本仅有两周,这个版本比ChatGPT更厉害,吓坏了教师、记者以及任何依靠建立和/或验证内容的人。
「先进的人工智慧可能代表了地球生命史上的深刻变革,应该以相对应的谨慎和资源来进行规画和管理。」信中写道。不幸的是,这种相对应程度的规画和管理并没有发生。
信中建议AI实验室和独立专家,应利用这个暂停期间共同开发和实施一套共用的高级AI设计和开发安全协议,由独立的外部专家进行严格的审核和监督。这并不意味着对AI开发的总体暂停,仅仅是从危险的竞赛中退一步,这些竞赛导致越来越大的不可预测的黑盒子——AI模型具有难以掌控的新能力。
这封信既反映了业界对近期AI大规模推向市场的真正担忧,也带有一点新派卢德主义( 捣毁科技设备或弃之不用,提倡简朴的生活)的恐慌。此外,一点点恐慌能够吸引那些对AI产生怀疑的媒体注意力。
也有科学家对此表示荒谬,虽然这封信表达了合理的担忧,但要求研究人员暂停工作可能只是为了帮助署名的某些人保持在AI领域的主导地位。企业的野心和主宰欲望往往战胜了道德问题,如果这些署名的组织正在测试比ChatGPT或谷歌的Bard更先进的东西,大家也不用感到惊讶。
过去对人类可能产生灾难性影响的技术必须暂停使用,这些例子包括人类的复制、人类生殖细胞的基因修改和优生学等等,AI是否属于同一等级?而且6个月之后呢? (作者为叡扬资讯数位转型大使、台北商大前校长)