AI恐灭绝人类!350名专家最新连署:比照核战正视风险
350位AI领域专家和业界人士联署,呼吁重视人工智慧发展的危险性。(图/Shutterstock)
美国非营利组织「人工智慧安全中心」(Center fot AI Safety,CAIS) 30 日发布一份连署公开信,只有短短一句话「降低人工智慧(AI)灭绝人类的风险,应该与其他社会规模的重大风险,例如流行病和核战争一样,成为全球优先事项」。包括Chat GPT母公司OpenAI的执行长山姆阿特曼、微软、Google等科技公司执行长,以及AI相关专家学者等350多人都共同签署。
「人工智慧安全中心」的公开信非常简单明了,就是强调人工智慧有灭绝人类的风险,应该成为全球的优先事项,用对待核武战争相同的等级来正视这个风险。共同签署公开信的除了阿特曼以外,还有研究人工智慧的先驱「AI教父」辛顿(Geoffrey Hinton)、Google人工智慧研究部门Deepmind的CEO、微软首席科学官以及中国、美国等多国名牌大学的教授和科学家,共350多人。
「人工智慧安全中心」网站上也列举出AI科技带来的几大风险,包括人工智慧掌握到研发药物的工具,进而制造出生化武器;AI生成的海量虚假讯息,被国家、政党、组织利用于说服他人,AI自行产生极具说服力但不正确的论述,所引发的严重后果;人类最终失去自我管理能力,必须完全倚赖机器等等。
今年5月中旬,美国参议院司法委员会隐私科技与法律立法小组召开「AI监管:人工智慧的规则」听证会,OpenAI的执行长山姆阿特曼做为与会证人出席。会中,阿特曼也点出他对人工智慧科技发展的忧心,他强调,若AI技术跑偏将会产生严重问题,希望能对此直言不讳也愿意与政府合作,他也提出3 点建议,「成立一个新的政府机构,负责授权大型AI模型,并撤销不符合政府标准的公司许可证」、「为AI模型建立一套安全标准,评估其危险性」、「需要独立的专家,独立审查模型的各种指标表现」。