小程序
传感搜
传感圈

人工智能作战的5大原则

2020-03-17
关注
摘要 这五个原则适用于AI技术的战斗和非战斗使用。

  美国国防部现在拥有广泛的原则,概述了军队对人工智能的道德使用。国防部首席信息官Dana Deasy和联合人工智能中心主任John Shanahan中将宣布,于2月24日正式采用了五个符合道德规范的AI使用原则。


  这五个原则适用于AI技术的战斗和非战斗使用。

  五项原则如下:

  1、负责任的。国防部人员将行使适当的判断和谨慎水平,同时还要负责AI功能的开发,部署和使用。

  2、公平的。该部门将采取有步骤的措施,以最大程度地减少人工智能功能中的意外偏差。

  3、可追溯的。该部门的AI功能将得到开发和部署,以便员工对适用于AI的技术,开发流程和操作方法有适当的了解。这包括透明且可审核的方法,数据源以及设计过程和文档。

  4、可靠。该部门的AI功能将具有明确定义的用途,并且此类功能的安全性,安全性和有效性将受到测试。

  5、可治的。该部门将设计和设计AI功能,以实现其预期的功能,同时具有检测和避免意外后果的能力,以及使表现出意外行为的已部署系统脱离或停用的能力。

  对于那些关注军事AI发展的人来说,其中一些原则可能会引起争议。

  例如,在董事会制定的“可管理”原则中,是否包括明确要求AI系统具有使人类停用或脱离系统的方法。DIB的最终建议包括一个折中方案,即“人为或自动脱离或停用已部署的系统,这些系统表现出意外的升级或其他行为。”但是,最终的DoD语言删除了该措辞,并要求AI系统具有“使显示出意想不到的行为的已部署系统脱离或停用的能力”。

  但是,Shanahan强调了五角大楼的最终语言比董事会的建议还要进一步。他指出了“可追溯的”原则,在该原则中,所有“相关人员”都采用了苹果公司的措辞,这比董事会使用的“技术专家”措辞更为广泛。

  谷歌董事会主席,前负责人埃里克·施密特(Eric Schmidt)在一份声明中对这一举动表示赞赏。

  “埃斯珀秘书长在AI方面的领导能力以及他为国防部发布AI原则的决定不仅向国防部证明,而且向世界各国表明,美国和国防部致力于道德操守,并将在确保民主国家采用新兴技术方面发挥领导作用。负责任地。”他说。

  预期JAIC将领导实施这些原则。Shanahan表示,他已兑现了他先前在JAIC内聘请AI伦理学家的承诺,她和JAIC的其他工作人员将邀请整个部门的AI领导者来讨论实施。

  “这将是一个严格的过程,旨在创建一个持续的反馈循环,以确保该部门保持最新的人工智能技术和创新。我们的团队还将制定采购指导,技术保障,组织控制,降低风险的战略和培训措施。”Shanahan说。


您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

提取码
复制提取码
点击跳转至百度网盘