英國人工智慧安全研究所釋出名為「Inspect」的人工智慧模型安全評估平台

由于越来越多企业开始导入人工智慧技术,但对于当前人工智慧技术模型是否有足够安全性,多半还是提供者各各自表述为主,仍缺乏一定参考数据。而英国人工智慧安全研究所 (AI Safety Institute)近期释出人工智慧模型安全评估平台「Inspect」,搭配其可扩充特性作为日后开发、评估人工智慧模型的参考依据。

「Inspect」本质上为软体资料库,并且以资料集、求解器与评分器组成,借此评估人工智慧模型包含核心知识、推论能力,以及自主管理能力,同时透过结果作为模型能力评估基准。

而「Inspect」采开源形式授权使用,可由使用者免费使用,或是透过其扩充特性增加更多评估功能,借此对应更多人工智慧模型评估需求。

英国人工智慧安全研究所主席Ian Hogarth表示,期望透过开源方式吸引更多人工智慧社群做出贡献,并且让「Inspect」成为更能评估人工智慧模型能力的工具,同时也能借由开源提高此项工具使用透明度,更可降低评估人工智慧模型能力的相关成本。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》