Google执行长Sundar Pichai再强调:AI不会用在军武
▲Google 执行长 Sundar Pichai 撰文解释 AI 技术原则。。(图/路透)
根据先前的报导,Google 因为与美军的合作引来内部的离职潮,有员工担忧 AI 技术被运用在生产武器与监控。Google 执行长 Sundar Pichai 今天就公开详细的 AI 技术使用原则,明确指出不会将技术运用在对人造成伤害的武器与技术上。
在文章开头 Pichai 提到 AI 人工智慧于各领域的应用,帮助人们解决难题,但强大的技术也面临风险,如何使用与开发将会对社会造成重大影响。Google 承诺该领域不断发展,会保持谦卑的态度面对开发工作,并且随着时间调整 AI 研发的工作内容。
Pichai 提出七大原则,包含:1. AI 技术应该对社会是有益的2. 避免加强、制造偏见与不平等3. 注重技术安全、确保安全性4. 对人类负责,保证受人类控制与监控5. 设计需注重隐私原则6. 捍卫科学的最高标准7. 提供符合上述原则的用途
▲Google 本次与国军的争议,引发首度大规模离职潮。(图/路透)
除了七大原则,还有四项禁止项目,包含不违反国际的技术公约、国际法与人权原则等,若可能制造巨大伤害,将在可以进行安全限制下进行,最后则是关于近期争议武器的条款,则是写道,AI 不会用在「直接导致人类被伤害的武器与技术」。Pichai 澄清,Google 没有开发专用于武器的 AI 技术,仍会继续与美军保持合作,但会将技术运用在网路安全、人才培训、医疗保险与搜救。
根据《彭博社》报导,一名参与 Google 内部抗议联署的员工表示,文章用语非常谨慎,但至少公司开始解决问题。英国牛津大学的 AI 研究员 Miles Brundage 则表示,对于人类造成伤害这点相当模糊,因为 Google AI 仍可以针对建筑物与非人类项目进行网路攻击。