【编者按】2020年2月19日,欧盟委员会发布人工智能白皮书《面向卓越和信任的欧洲人工智能发展之道》(On Artificial Intelligence - A European approach to excellence and trust)。白皮书共分为人工智能概述、利用工业和专业市场的优势、抓住下一波数据浪潮机遇、卓越生态系统、信任生态系统、结论等六大部分,其中指出:人工智能为欧洲的发展带来了新的机遇,同时也带来了相应的风险,欧洲在技术、产业、数字基础设施等方面具备的优势以及在消费者平台方面劣势,未来需要在充分尊重欧盟公民价值观和权利的情况下,促进人工智能在欧洲可信和安全发展的政策选择——构建卓越和信任的生态系统,助力欧洲成为可信人工智能领域的全球领导者。
1 人工智能概述
欧洲当前和未来的可持续经济增长和社会福利越来越依赖于数据所创造的价值。人工智能是数据经济中最重要的应用之一。如今,绝大部分数据都与消费者相关,而且会在云基础设施上进行存储和处理。相比之下,未来更多的数据将来源于工业、商业和公共部门,数据将被存储于各种系统之中,尤其是那些运行在边缘设备中。这为欧洲带来了新的机遇,因为欧洲尽管在消费者平台方面相对较弱,但欧洲在数字化工业和B2B应用方面在全球处于优势的地位。
欧洲的技术、产业优势以及高质量的数字基础设施可以和基于基本价值观的监管框架相结合,成为数据经济及其应用创新的全球领导者。在此基础上,欧洲可以开发一套人工智能生态系统,从而为欧洲社会和经济带来技术福祉。
考虑到人工智能对社会产生重大影响以及建立信任的需要,欧洲人工智能必须以欧洲的价值观和包含人类尊严和隐私保护等在内的基本权利为基础,这一点至关重要。
为了达到足够的规模,避免单一市场的碎片化,欧洲有必要采取一种共同的人工智能策略。需要在充分尊重欧盟公民的价值观和权利的情况下,提出了使人工智能在欧洲可信和安全发展的政策选择,主要内容如下:
(1)该政策框架制定了欧洲、国家和区域的协调措施。在私人部门和公共部门的合作中,框架的目的在于从研究和创新开始就调动资源,从而在整个价值链上建成“卓越的生态系统”,并建立正确的激励机制,加快采用基于人工智能的解决方案,包括中小企业在内。
(2)未来欧洲人工智能监管框架的关键因素将创建一个独特的“信任的生态系统”。该系统必须确保遵守欧盟规则,包括保护基本权利和消费者权利,特别是在欧盟运行的、构成高风险的人工智能系统。建立一个“信任的生态系统”本身就是一项政策目标,它应该让公民有信心接受人工智能应用,并赋予企业和公共组织利用人工智能进行创新的法律确定性。欧盟委员会大力支持以人为本的策略,这种策略基于在以人为本的人工智能中建立信任的交流,并将考虑到人工智能高级专家组在编写伦理准则的试行阶段获得的投入。
2 利用工业和专业市场的优势
欧洲具有利用人工智能潜能受益的优势,欧洲不仅仅是用户,更是人工智能技术的创造者和生产者。欧洲不仅拥有十分出众的研究中心、创新型初创企业,而且在机器人、竞争激烈的制造业、服务业等领域占据世界领先,覆盖汽车、医疗保健、能源、金融服务和农业等领域。欧洲已经发展了强大的计算基础设施(如高性能计算机),还拥有大量的公共和工业数据,但是其潜力尚未得到充分利用。欧洲具备公认的低功耗的安全数字系统优势,这一点对人工智能的发展十分关键。
欧盟通过在下一代技术和基础设施方面以及数字能力方面的投资,将增强欧洲在关键技术和基础设施方面的技术主权,基础设施应当支持创建欧洲数据池(European data pools),以支持可信的人工智能。
欧洲之所以在研究方面处于强势地位,原因之一是欧盟的资助计划,该计划在汇集行动、避免重复以及利用成员国的公共和私人投资方面发挥了重要作用。在过去的三年里,欧盟用于人工智能研究和创新的资金增至15亿欧元,同期增长70%。
然而与世界其他地区相比而言,欧洲在研究和创新领域的投资只占据了公共和私人投资的一小部分。2016年,欧洲在人工智能领域的投资约为32亿欧元,北美约为121亿欧元,亚洲约为65亿欧元。因此,欧洲需要大幅度提高投资水平。事实证明,与成员国一起共同制定人工智能协调计划是一个良好的起点,有助于建立更加紧密的合作,发挥协同效应,人工智能投资价值的最大化。
3 抓住未来机遇:下一波数据浪潮
全球产生的数据量正在迅速增长,从2018年的33泽字节(Zettabytes)到2025年的175泽字节。每一波数据浪潮都会给欧洲带来机会,助力其在数字经济中定位并成为该领域的世界领先者。虽然目前欧洲在消费者应用程序和在线平台的地位较弱,这导致其在数据获取方面处于劣势,需要推动跨部门的数据利用和再利用。
欧洲是低功耗电子产品的全球领导者,这是下一代人工智能专用处理器的关键所在。量子计算的最新进展将使处理能力成指数级增长。由于欧洲在量子计算领域的学术优势,以及欧洲工业在量子模拟器和量子计算变成方面的强大优势,欧洲能够走在量子计算领域的前列。同时,凭借欧洲具备的科学卓越性,欧洲将继续引领人工智能算法基础的进步。
4 卓越的生态系统
为了在整个欧盟经济和公共行政部门层面建立一个支持人工智能发展和采用的“卓越的生态系统”,有必要从以下八个层面加强行动:
(1)与会员国的合作:考虑到就白皮书进行公众咨询的结果,欧盟将向成员国建议在2020年底之前通过一项协调计划。
(2)聚焦研究和创新组织的努力:欧盟将促成建立能够结合欧洲、国家和私人投资层面的卓越和测试中心(excellence and testing centres),可能包括一项新的法律文书。欧盟提出了一项重大的专项拨款,用于支持在“数字欧洲计划”下设在欧洲的世界参考测试中心(world reference testing centres),并由“欧洲地平线”(Horizon Europe)计划下的研究和创新行动作为《多年期财务框架(2021-2027)》(MFF)的一部分予以补足。
(3)能力方面:通过由顶尖大学和高等教育机构组成的“数字欧洲计划”网络,建立和支持高级技能支柱,以吸引最优秀的教授和科学家,并提供人工智能领域中世界领先的硕士课程。
(4)聚焦中小企业:欧盟委员会将与成员国合作,确保每个成员国至少拥有一个在人工智能领域高度专业化的数字创新中心。数字创新中心可以在“数字欧洲计划”下得到支持。欧盟委员会和欧洲投资基金将在2020年第一季度启动1亿欧元的试点计划,为人工智能领域的创新发展提供股权融资。根据MFF的最终协议,欧盟委员会打算从2021年起通过“投资欧洲”(InvestEU)大幅度扩大MFF的规模。
(5)与私营机构建立伙伴关系:在“欧洲地平线”计划的背景下,欧盟委员会将在人工智能、数据、机器人技术方面建立新的公私合作伙伴关系,以共同努力并确保在人工智能研究和创新的协调,在“欧洲地平线”计划下与其他公私合作伙伴关系展开合作,并和测试中心、数字创新中心一起共同工作。
(6)促进公共部门采用人工智能:欧盟委员会将会发起部门间公开和透明的对话,部门对话将用于准备特定的“采用人工智能计划”(Adopt AI programme),以支持人工智能系统公共采购,并帮助部门改变公共采购流程。
(7)数据和计算基础设施访问:欧盟委员会已经提出了超过40亿欧元的“数字欧洲计划”,以支持高性能计算和量子计算,包括边缘计算和人工智能、数据和云基础设施,欧洲数据战略进一步发展了这些优先事项。
(8)国际方面:在欧盟规则和价值观的基础上,欧盟将继续与志同道合的国家和全球参与者展开在人工智能领域的合作。欧盟委员会将密切监测其他国家限制数据流动的政策,并将在双边贸易谈判中通过世界贸易组织范围内的行动解决不适当的限制。欧盟委员会相信,人工智能领域的国际合作必须建立在一种促进尊重基本权利的基础上,包括人的尊严、多元化、包容性、非歧视、保护隐私和个人数据,并将努力在世界范围内输出其价值观。显然,负责任地开发和使用人工智能能够成为可持续发展目标和推动2030年可持续发展议程的动力。
5 信任的生态系统:人工智能的监管框架
由于人工智能系统非常复杂,并在某些情况下会引发重大风险,因此建立信任至关重要。需要通过明确的规则,解决高风险的人工智能,同时又不会给低风险系统带来过多负担,欧盟将继续实施严格的消费者保护协定,以应对不公平的商业行为,保护个人数据和隐私。
未来欧盟监管框架的范围
未来人工智能监管框架的一个关键问题是确定其使用范围。一种有效的假设是,监管框架将适用于依赖人工智能的产品和服务。现阶段,欧盟设立了一个严格的法律框架,以确保消费者保护、解决不公平的商业行为,并保护个人数据和隐私。原则上,新的人工智能监管框架应能够有效的实现目标,同时不能过度规定,以免造成不成比例的负担,尤其是对中小型企业而言。为了达到这种平衡,欧盟认为应该采用一种以风险为基础的策略。
欧盟认为,鉴于应用部门和预期用途可能涉及重大风险,特别是从安全、消费者权益和基本权利的角度出发,需要对某一特定领域的人工智能应用进行判断,判断其是否是高风险。在满足以下两种情况下该人工智能应用应该被认为是高风险:
第一,在某一可能会发生重大风险的领域,在该领域中的人工智能应用应被认为是高风险的。这一标准是为了确保监管的对象是最有可能发生重大风险的领域。新的监管框架应当具体且详细地列出相关的领域,例如医疗保健、运输、能源和部分公共领域。所列清单应当根据实际发展情况,进行定期审查和修订。
第二,只有在相关领域不当地利用人工智能并产生了重大风险,这种人工智能才会被认为是高风险的。这一标准与人工智能的利用方式有关。例如,虽然医疗保健是人工智能应用的相关领域,但是医院预约系统的缺陷通常不会造成重大的风险引起立法干预。对于特定的人工智能使用风险水平的评估应基于对受影响方的影响,例如利用人工智能应用对个人或企业的权利产生合法或类似的重大影响的;造成受伤、死亡、重大物质性损害或非物质性损害的;造成个人或者法人无法合理规避的后果的。
需求类型
在设计未来的人工智能监管框架时,有必要决定对相关参与者实施何种类型的强制性法律要求,这些要求可以进一步通过标准来规定。除现有的立法外,这些要求只适用于高风险的人工智能应用,从而确保监管都是集中且适当,对高风险人工智能应用的要求可能包含以下主要特点:
·训练数据;
·数据和和记录保存;
·拟提供的信息;
·鲁棒性和准确性;
·人为监督;
·特定人工智能应用的特殊要求,例如用于远程生物识别的需求。
适用者
高风险人工智能应用的法律要求的适用者,有两个主要问题需要考虑:
第一,存在一个如何在相关的经营者之间分配义务的问题。许多参与者都参与了人工系统的生命周期,包括开发人员、部署人员和其他潜在的人员(生产商、分销商、进口商、服务提供商、专业用户或私人用户)。
第二,立法干预的地理范围问题。欧盟认为,这些规定必须适用于所有在欧盟范围内提供人工智能产品或服务的相关经营者,无论他们是否设立在欧盟。
非高风险人工智能应用的自愿贴标
对于非高风险的人工智能应用,除了适用的法律外,还可以选择设立自愿贴标计划(voluntary labelling scheme)。那些不受强制性规定监管的经营者,可以决定在自愿基础上使自身成为强制性规定的监管对象,或者是成为专门为自愿贴标计划而制定规定的监管对象,自愿贴标计划将允许相关的经营者声明他们提供的人工智能产品和服务是值得信赖的,这将有助于用户轻松地认识到,这些产品和服务符合欧盟某些客观和标准化规定,超出了其通常适用法律义务,此举将有助于增强用户对人工智能系统的信任,并促进人工智能技术的全面应用。
治理
欧洲的人工智能治理结构必须是和国家主管部门开展合作,从而避免责任的碎片化,提升成员国能力,确保欧洲逐步具备测试和认证人工智能产品和服务所需的能力。作为一个定期交流信息和最佳实践的组织,欧洲治理结构可以有多种任务,包括识别新兴趋势,就标准化和认证活动提供建议,还可以通过发布指导方针、意见和专业知识等方式,在推动法律框架实施方面发挥关键作用。
人工智能治理结构应该最大程度地保证利益相关者参与。在实施和进一步发展该结构时,应当咨询消费者组织、社会伙伴、商界、研究人员和民间社会组织等相关人士的意见。
鉴于在金融、制药、航空、医疗器械、消费者保护、数据保护等领域已有相关的治理结构,拟议的人工智能治理结构不应重复。相反,它应该与欧盟其他部门和各国主管部门建立密切联系,以补充现有的专业知识,并帮助现有部门监测和监督那些涉及人工智能系统和支持人工智能产品和服务的经营者的活动。
最后,如果采用这种治理结构,可以将合格评定执行委托给会员国指定的认证机构。测试中心应根据上述的要求对人工智能系统进行独立审查和评估。这种独立评估将增强信任并确保客观性,并有助于主管部门工作开展。
6 结论
人工智能是一项战略技术,只要其坚持以人为本、合乎道德、可持续发展、尊重基本权利和价值的发展方向,才能够为公民、企业和整个社会带来诸多福祉。为了使欧洲充分抓住人工智能带来的机遇,必须发展和增强必要的工业和技术能力,同时需要如《欧洲数据战略》(European strategy for data)所要求的,应当采取措施使欧洲成为全球数据中心。
编译 | 李书峰/赛博研究院研究员
本文由赛博研究院出品,转载请注明:本文来源于赛博研究院公众号。
更多精彩内容请关注“赛博研究院”公众号。