4月21日,欧盟委员会提出新的规则和行动,旨在使欧洲成为全球可信人工智能中心。欧盟的规则具体包括:
(1)人工智能法律框架,即制定统一的人工智能规则(人工智能法)并修正某些联合立法行为(Laying Down Harmonised Rules On Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts);
(2)新的协调计划,即2021年人工智能协调计划审查(Coordinated Plan On Artificial Intelligence 2021 Review);
(3)针对机器的新规,即针对机器产品的立法提案(Proposal for a Regulation on Machinery Products)。
前两者将确保欧盟企业和公民的安全和基本权利,同时加强欧盟对人工智能的使用、投资和创新。针对机器的新规则将起到补充作用,通过调整安全规则提高用户对新一代多功能产品的信任度。
欧盟新规遵循基于风险的方法,以同等方式直接应用于所有成员国。
禁止对人类安全、生活和权利构成明显威胁的人工智能系统。这包括操纵人类行为,绕过用户自由意志的人工智能系统或应用程序(例如,使用语音协助鼓励未成年人危险行为的玩具)以及允许政府进行“社会评分”的系统。
高风险的人工智能系统包括用于以下方面的人工智能技术:
- 关键基础设施——可能使公民的生命和健康处于危险之中(例如交通运输);
- 教育或职业培训——可能决定个人获取教育和专业课程机会(例如考试评分);
- 产品的安全组件(例如人工智能在机器人辅助手术中的应用);
- 就业、员工管理和实现个体经营(例如用于招聘程序的简历分类软件);
- 基本的私人和公共服务(例如剥夺公民获得贷款机会的信用评分);
- 可能会干扰人们基本权利的执法活动(例如对证据可靠性的评估);
- 移民、庇护和边境管制(例如核实旅行证件的真实性);
- 司法和民主程序(例如将法律应用于具体事实)。
高风险的人工智能系统在投入市场之前,必须严格遵守下述义务:
- 部署适当的风险评估和风险缓解系统;
- 为系统提供高质量数据集,最大程度地降低风险和歧视性结果;
- 记录相关活动以确保结果的可追溯性;
- 提供记录系统目的及所有必要相关信息的详细文件,供当局评估其合规性;
- 向用户提供清晰、充分的信息;
- 部署适当的人为监督措施,最大程度地降低风险;
- 确保高水平的鲁棒性、安全性和准确性。
此外,所有远程生物特征识别系统都被认为是高风险的,并且需满足严格的保障要求。原则上,禁止在公共场所因执法目的进行现场使用。有限的例外情况受到了严格的定义和规范。(例如,在确实需要的情况下,用来寻找失踪儿童,防止特定且紧迫的恐怖主义威胁,侦查、定位、识别或起诉犯有严重刑事罪行的犯罪者或嫌疑人)。此类使用需要获得司法机构或其他独立机构的授权,并受到时间、地理范围和所搜索数据库的适当限制。
人工智能系统拥有特定的透明度义务。使用聊天机器人等人工智能系统时,用户应意识到正在与机器进行交互,并由此可做出是否继续进行的相关决定。
法律提案允许自由使用人工智能赋能的视频游戏或垃圾邮件过滤器等应用程序。绝大多数人工智能系统都属于这一类。该法律提案不在此处进行干预,因为该类人工智能系统对公民的权利或安全仅构成很小风险,或不构成风险。
在治理方面,欧盟委员会建议由各成员国的国家市场监督主管部门监督新规执行,同时成立欧洲人工智能委员(European Artificial Intelligence Board),助力各国监管工作,并推动人工智能标准的制定。此外,法律提案提到,应鼓励非高风险人工智能系统的提供者制定行为守则,促进自愿采纳适用于高风险人工智能系统的强制性要求,并提出了监管沙盒以促进负责任的创新行为。
在处罚方面,若未遵守提案中第5条中禁止人工智能的做法,或第10条中关于人工智能系统数据相关要求,最高将面临30000000欧元的行政罚款;若违规者是公司,则面临上一个财政年度全球年度总营业额6%的行政罚款,以较高者为准。
除第5条和第10条所规定的要求外,未遵守提案中关于人工智系统的任何要求或义务,最高将面临20000000欧元的行政罚款;若违规者是公司,则面临上一个财政年度全球年度总营业额4%的行政罚款,以较高者为准。若向指定机构和国家主管部门提供不正确、不完整或误导性信息,将面临最高10000000欧元的行政罚款;若违规者是公司,则面临上一个财政年度全球年度总营业额2%的行政罚款,以较高者为准。
协调计划将加强欧洲在以人为本、可持续、安全、包容和可信人工智能方面的领先地位。为了保持全球竞争力,欧盟委员会致力于在所有成员国的所有行业中,促进人工智能技术发展和使用方面的创新。
《人工智能协调计划》于2018年首次发布,旨在确定促进人工智能研发和采用所需的行动和资金工具。全面更新的协调计划希望加快对人工智能的投资,促进成员国人工智能战略的实施,消除分散性并应对全球挑战。新的协调计划将使用来自“数字欧洲”(Digital Europe)和“地平线欧洲”(Horizon Europe)计划、“复苏基金”(Recovery and Resilience Facility)以及“凝聚基金”(Cohesion Policy)计划所分配的资金:
- 通过交流政策见解、数据共享和对关键计算能力的投资,为人工智能的发展和采用创造有利条件;
- 通过建立公私合作伙伴关系,建立并调动研发和创新能力,为中小企业和公共管理机构提供测试和试验设施(TEF)以及数字创新中心(DIHs),促进人工智能“从实验室进入市场”卓越发展;
- 通过立足可信人工智能开发和部署的最前沿,在数字领域支持培训、博士和博士后研究以培养人才和技能,将“信任”整合到人工智能政策中,在全球范围内推广欧洲关于可持续发展和可信人工智能的愿景,确保人工智能为人类服务并成为社会中向善的力量。
- 在环境、健康、公共部门、出行、内政、农业和机器人技术等七大具有高影响力的领域中建立战略领导地位。具体来看,在环境方面,可关注人工智能对可持续生产的贡献;在健康方面,可扩大跨境的相关信息交流。
“机器产品”涵盖了广泛的消费品和专业产品,包括机器人、剪草机、3D打印机、建筑机械,工业生产线等。新的机器法规(Machinery Regulation)取代了原有的机器指令(Machinery Directive),定义了机器的健康和安全要求。这项新的机器法规将确保新一代机械能够保证用户和消费者的安全,并鼓励创新。人工智能法规将解决人工智能系统的安全风险,而新的机器法规将确保人工智能系统安全地集成到整个机器中。企业将只需要执行一次合规评定。
此外,新的机器法规将通过使当前条款更具有法律明确性,以响应市场需求;通过允许以数字格式进行文档记录,调整中小企业合规评定费用来减轻公司的行政负担和成本,同时确保与欧盟的产品立法框架保持一致性。
对此,欧盟委员会执行副主席Margrethe Vestager认为,欧盟正带头制定新的全球规范,以确保人工智能值得信赖。通过制定标准,欧盟可以为在世界范围内推广符合伦理的技术铺平道路,并确保欧盟在此过程中保持竞争力。欧盟内部市场专员Thierry Breton表示,人工智能存在诸多风险,欧盟的提议旨在加强欧洲在人工智能的研究、市场化应用等方面,作为全球卓越枢纽的地位,确保欧洲的人工智能尊重其价值观和规则,并充分利用人工智能在工业领域的潜力。