OpenAI及Anthropic同意推出新款人工智慧模型前 將交由美國人工智慧安全研究所評估
OpenAI及Anthropic稍早同意在推出新款人工智慧模型前,将交由美国政府所属人工智慧安全研究所评估模型性能,以及可能潜在风险,确保新技术不会产生负面影响。
美国政府所属人工智慧安全研究所是在拜登政府于2023年一项人工智慧相关行政命令下成立,主要任务是协助开发测试、评估,并且提出相关指导方针,确保人工智慧技术能在安全情况下使用,同时避免产生非必要的负面影响。
而在相关协议中,人工智慧安全研究所将能在人工智慧业者推出新款人工智慧模型之前取得相关存取权,甚至在后续也能持续存取,以利其测试、评估作业可顺利进行,而相关评估研究作业也将与英国人工智慧安全研究所合作,借此确认各类模型是否安全,以及是否产生负面影响。
除了OpenAI及Anthropic,包含Google在内业者似乎也已经与人工智慧安全研究所进行合作讨论,借此在政府监督情况下顺利推动其人工智慧应用服务,避免面临政府机构对其服务产生质疑。
另一方面,加州政府近期也通过人工智慧安全法案「SB 10147」,要求开发成本超过1亿美元,或是具备一定算力规模的人工智慧模型必须进行安全测试,同时也要求业者必须针对此类人工智慧技术加上「安全开关」,一旦人工智慧技术功能走偏或出现失控情况即可使其停止。
相比联邦政府规定,加州政府提出法案有更高约束力,若人工智慧业者不配合,甚至引发相关问题情况下,加州总检察长有权对此提起诉讼。而加州人工智慧安全法案目前仍需再进行一次投票表决,并且由加州州长Gavin Newsom于9月底签署才会成为正式法令。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》