美国国防部现在拥有广泛的原则,概述了军队对人工智能的道德使用。国防部首席信息官Dana Deasy和联合人工智能中心主任John Shanahan中将宣布,于2月24日正式采用了五个符合道德规范的AI使用原则。
这五个原则适用于AI技术的战斗和非战斗使用。
五项原则如下:
1、负责任的。国防部人员将行使适当的判断和谨慎水平,同时还要负责AI功能的开发,部署和使用。
2、公平的。该部门将采取有步骤的措施,以最大程度地减少人工智能功能中的意外偏差。
3、可追溯的。该部门的AI功能将得到开发和部署,以便员工对适用于AI的技术,开发流程和操作方法有适当的了解。这包括透明且可审核的方法,数据源以及设计过程和文档。
4、可靠。该部门的AI功能将具有明确定义的用途,并且此类功能的安全性,安全性和有效性将受到测试。
5、可治的。该部门将设计和设计AI功能,以实现其预期的功能,同时具有检测和避免意外后果的能力,以及使表现出意外行为的已部署系统脱离或停用的能力。
对于那些关注军事AI发展的人来说,其中一些原则可能会引起争议。
例如,在董事会制定的“可管理”原则中,是否包括明确要求AI系统具有使人类停用或脱离系统的方法。DIB的最终建议包括一个折中方案,即“人为或自动脱离或停用已部署的系统,这些系统表现出意外的升级或其他行为。”但是,最终的DoD语言删除了该措辞,并要求AI系统具有“使显示出意想不到的行为的已部署系统脱离或停用的能力”。
但是,Shanahan强调了五角大楼的最终语言比董事会的建议还要进一步。他指出了“可追溯的”原则,在该原则中,所有“相关人员”都采用了苹果公司的措辞,这比董事会使用的“技术专家”措辞更为广泛。
谷歌董事会主席,前负责人埃里克·施密特(Eric Schmidt)在一份声明中对这一举动表示赞赏。
“埃斯珀秘书长在AI方面的领导能力以及他为国防部发布AI原则的决定不仅向国防部证明,而且向世界各国表明,美国和国防部致力于道德操守,并将在确保民主国家采用新兴技术方面发挥领导作用。负责任地。”他说。
预期JAIC将领导实施这些原则。Shanahan表示,他已兑现了他先前在JAIC内聘请AI伦理学家的承诺,她和JAIC的其他工作人员将邀请整个部门的AI领导者来讨论实施。
“这将是一个严格的过程,旨在创建一个持续的反馈循环,以确保该部门保持最新的人工智能技术和创新。我们的团队还将制定采购指导,技术保障,组织控制,降低风险的战略和培训措施。”Shanahan说。