欧盟委员会(European Commission)于2021年4月21日提出了人工智能(AI)法规,旨在将欧洲变打造值得信赖的人工智能(AI)的全球中心。欧盟有史以来第一个人工智能的法律框架与欧盟成员国的协调计划相结合,将保证人们和企业的安全和基本权利,同时加强欧盟对人工智能的吸收、投资和创新。新法规将调整安全规范,以增加使用者对新一代多功能产品的信任。
新的人工智能法规将确保欧洲人民可以信任人工智能产品。相称和灵活的规则旨在解决人工智能系统带来的具体风险,并在全球范围内设定最高标准。协调计划(The Coordinated Plan)概述了欧盟成员国必要的政策改变和投资,以加强欧洲在发展以人为本、永续、安全、包容和值得信赖的人工智能方面的领先地位。
新的法规基于人工智能发展趋势,依据风险高低分类,将适用于所有欧盟成员国。
不可接受的风险(Unacceptable risk):被认为对人们的安全、生计和权利有明显威胁的人工智能系统将被禁止。这包括操纵人类行为以规避用户自由意志的人工智能系统或应用(例如,使用语音辅助的玩具,鼓励未成年人的危险行为)和允许政府进行「社会评分(social scoring)」的系统。
高风险(High-risk):被认定为高风险的人工智能系统涉及到以下用途:
▲重要基础设施(如交通),可能使人民的生命和健康受到威胁;
▲教育或职业培训,可能决定某人的受教育机会(如考试评分);
▲产品的安全零件(如AI在机器人辅助手术中的应用);
▲就业、员工管理和自雇管道(如征才使用的履历分类软件);
▲基本的私人和公共服务(如信用评分剥夺了公民取得贷款的机会);
▲可能干涉人们基本权利的执法(如评断证据可靠性的系统);
▲移民、庇护和边境控制管理(如核实旅行文件真实性的系统);
▲利用AI于司法和民主程序。
高风险的人工智能系统上市前,将受到严格的管控约束:
▲充分的风险评估和缓解系统;
▲为系统提供高质量的数据集,以尽量减少风险和歧视性的结果;
▲对活动进行记录,以确保可追溯结果;
▲提供关于系统及其目的的所有必要信息,以便监管单位评估其合规性;
▲向用户提供充分且清晰的信息;
▲适当的人力监督措施,以最大限度地减少风险;
▲高度的稳健性、安全性和准确性。
特别是:
▲所有远程生物辨识(remote biometric identification)系统都被视为高风险的人工智能系统。
▲原则上禁止在公共场所为执法目的使用,狭义的例外情况有严格的定义和规定(例如,在寻找失踪儿童、防止具体和紧迫的恐怖主义威胁或侦查、定位、识别或起诉严重刑事犯罪的肇事者或嫌疑人的需要)。
▲使用上必须取得司法或其他独立机构的授权,并在时间、地理范围和搜索的数据库方面有适当的限制。
有限的风险(Limited risk):即具有透明公开义务的人工智能系统。在使用人工智能系统(如聊天机器人)时,使用者应该能意识到正在与机器互动,进而做出明智的决定。
最小的风险(Minimal risk):法规允许自由使用人工智能的电子游戏或垃圾邮件过滤器等应用,绝大多数的人工智能系统都属于这个类别,对此不作干预,因为这些系统对公民的权利或安全只构成最小或没有风险。
在监管方面,欧盟委员会建议各国市场监督主管部门配合新的法规,并将设立欧洲人工智能委员会(European Artificial Intelligence Board)促进其实施,推动人工智能标准的发展。此外,还提议为非高风险的人工智能系统制定自发性的行为准则,建立监管沙盒(regulatory sandbox)以促进创新。
《欧盟AI协调计划〈Coordinated Plan on AI〉》
《欧盟AI协调计划》首次发布于2018年,确定发展人工智能的行动和工具,使国家策略和欧盟公私合作关系和研究与创新网络形成了充满活力的局面。协调计划的全面更新提出了具体的合作行动,并确保与欧洲人工智能策略(European Strategy on AI)和欧洲绿色新约(European Green Deal)步调一致,同时考虑到COVID-19带来的新挑战。协调计划提出了一个加快人工智能投资的愿景,推动疫后复苏,刺激各国人工智能发展策略,消除碎片化,应对全球挑战。
协调计划将透过数字欧洲(Digital Europe)和展望欧洲(Horizon Europe)计划,以及欧盟复苏基金20%数字支出目标和欧盟凝聚政策(Cohesion Policy)分配的资金来进行:
▲通过交流政策见解、数据共享和对关键计算能力的投资,为人工智能的发展创造有利环境;
▲透过公私协力伙伴关系(PPP),建立研究、开发和创新能力,并向中小企业和公共管理部门提供测试和实验设施以及数字创新中心,促进人工智能的商业化。
▲支持数字领域的培训计划、博士生网络和博士后奖学金来培养人才和技能,在全球范围内促进欧洲人工智能愿景,确保人工智能为人们服务,成为社会的一股力量;
▲在高影响力的部门和技术中建立策略领导地位,包括人工智能对永续环境的贡献、扩大跨境信息交流来推动智能医疗系统,以及人工智能在公共部门、交通、农业,以及机器人技术的应用。
▲《机械条例〈Machinery Regulation〉》:涵盖了广泛的消费者和专业产品,从机器人到割草机、3D打印机、建筑机械、工业生产线。确保新一代的机械保使用者和消费者的安全,并鼓励创新。虽然人工智能法规将解决人工智能系统的安全风险,但新的机械条例将确保人工智能系统与整个机械的安全整合。企业将只需要执行一个单一的合格评估。
此外,新的机械条例将使现行规定更加明确,透过允许文件的数字格式和调整中小企业的合格评估费用,简化企业的行政负担和成本,同时确保与欧盟产品立法框架的一致性。
欧洲议会(European Parliament)和欧盟成员国将需要在普通立法程序中通过欧盟委员会对于人工智能系统和机械的建议。一旦通过,这些条例将直接适用于整个欧盟。同时,欧盟委员会将继续与成员国合作,推动实施协调计划。
背景:
多年来,欧盟委员会一直在促进和加强整个欧盟在人工智能方面的合作,以提高竞争力并确保基于欧盟价值观的信任。
在2018年发布欧洲人工智能策略(European Strategy on AI)后,经过广泛的协商讨论,人工智能高阶专家小组(High-Level Expert Group on Artificial Intelligence)在2019年制定了可信赖人工智能准则(Guidelines for Trustworthy AI),并在2020年制定了可信赖人工智能评估列表(Assessment List for Trustworthy AI)。同时,2018年12月发布了第一个的人工智能协调计划,作为与成员国的联合承诺。
委员会在2020年发布的人工智能白皮书(White Paper on AI)为欧洲的人工智能提出了一个清晰的愿景:一个卓越和信任的生态系统,为AI法规提案奠定基础。关于人工智能白皮书的公众咨询引起了世界各地的广泛参与。白皮书中的关于人工智能、物联网和机器人的安全和责任影响的报告,提到产品安全立法仍不够完整。
欧拟推AI法规 业界反弹声浪
对于欧盟提出全新法案管制人工智能(AI)的应用方法,如果立法过关将成为全球第一套管制AI的法规,但企业担心新法增加AI使用成本,限制或打压欧盟科技创新。
欧盟最新法案将AI应用方法依风险高低分类,其中高风险AI应用涵盖重大基础建设、大学入学筛选系统及银行贷款审查系统等。根据新法,这类高风险AI应用将受到欧盟严格监管,违法企业最高面临全球年营收6%的罚款。
除了加强监管之外,新法更将禁止特定AI应用,例如公共运输系统、公共场所、商店使用脸部辨识侦测、警察追查犯人的远程生物辨识系统,或是能够读取潜意识的AI技术。新法规规定,在使用前,必须先向主管机关提出法规遵从报告,详述脸部辨识系统如何取得数据。
对于AI新法被批评过于拢统不明,实际该如何实施仍有待观察。法律界人士认为,法规例外情况实在太多,反而失去AI规范保护及禁止的意义。