生物识别以及生物分类、行为检测、情感识别、脑机接口(BCI)和类似技术正被公共和私人机构广泛地使用。它们服务于各种各样的目的,从医疗保健到执法、边境管制到战争,并被部署在公共和私人空间。
"生物识别技术 "应理解为包括任何技术或操作,它:
依靠对与身体、生理或行为有关的数据进行具体的技术处理(包括在运动时)。
用于认证或识别人类个体,根据永久或长期特征对人类个体进行分类(包括为了预测未来行为),或检测人类个体的暂时或永久状况(如恐惧、疲劳或疾病,或特定意图)。
除了传统的生物识别技术,如指纹或面部识别,生物识别技术还包括分析按键或鼠标动态,手势动态,签名动态,以及声音和步态特征等。只要对这种行为进行分析,以推断出特定个人的遗传、身体、生理、行为、心理或情感性质的条件,就有理由将其纳入广义的生物识别技术的概念中。
主要的趋势是越来越多地使用"弱"和"软"以及"强"生物识别技术,重点是更多的行为模式,以及向多模式生物识别技术发展。再加上更强的传感器和计算能力及连接性,这为生物识别技术在各部门和目的中大规模推广铺平了道路,远远超出了执法和边境管制的范围,将生物识别技术转变为通用技术。
最新的技术进步包括改进的传感器,它能够捕获全新类型的生物信号,如通过EEG或ECG捕获心跳和脑电波,以及开发脑机接口(BCI)。BCI测量神经活动并将大脑活动转化为机器可读的输入。这些新技术具有潜在的高度侵入性,可以检测思想或意图,也可能影响人脑的运作。
2021年4月21日的《人工智能法提案》(AIA)以各种方式处理此类技术问题,其他现有的和正在制定的法案也是如此。然而,问题是现有和拟议的立法是否充分解决了所提出的伦理和基本权利问题。
生物识别引起的主要伦理问题与注册阶段有关,即创建和存储一个识别特定人的独特模型。注册阶段和部署阶段可能会重叠,因为模型在部署过程中会被完善。创建独特的模型意味着将人的独特物理特征转化为数字数据,导致人类的 "数据化"。由于独特识别一个人的特征是其身体的一部分,它们的收集和使用干扰了人类的个人自主权和尊严。一旦这个模型被创建和储存,将来任何拥有它的人都有能力在世界任何地方追踪和识别这个人,并可能用于任何目的。考虑到数据安全问题,收集和储存生物识别模板有很大的潜在危害。
除此之外,在公共场所使用生物识别方法所引起的伦理问题并不特别与生物识别技术有关,而是与对个人的大规模监视有关(即,它们与使用移动设备信号的大规模监视所引起的问题相似),或者说与使用该技术的目的以及使用方式有关。引起的伦理问题的层面特别取决于:
识别的具体目的。
识别的地点、方式或层面。
正在进行的识别措施的透明度。
匹配度高所引发的反应(如逮捕)。
赋予高匹配分数的证据力以及个人证明错误或身份欺诈的可能性。
匹配数据的存储和进一步处理(例如,用于创建流动性档案)。 歧视或污名化的问题主要是由于上述一个或几个方面的缺陷而产生的(例如,尽管系统对特定种族群体的准确性有所降低,但却做出了不合理的假设)。
人类的生物识别分类所引起的主要伦理问题(例如,在机场安全系统中分配到风险组,评估求职者)与分类系统的发展和具体使用有关。特别是在类别的定义、相关的假设和系统引发的结论或反应方面出现了伦理问题,导致了歧视、污名化和不适当的推论等风险。进一步的风险包括操纵和利用特定群体的脆弱性。伦理问题可能与以下方面有关:
归类的具体目的、背景和条件。
收集的数据和得出的推论的敏感程度。
系统的准确性,推断的适当性,以及任何控制机制,包括人为监督。
该系统引发的后果的严重性(包括潜在的不可逆转性)。
个人对分类的认识,以及个人对分类提出质疑的可能性及对输出结果提出质疑。
为剖析目的对数据进行的任何存储和进一步处理。
因此,在这种情况下需要解决的基本权利风险主要与标准化的特征分析和/或评分有关,是在特定社会背景下实现特定目的的一种手段。分类包括生物统计学(例如,一个人的年龄是根据他们脸上的皱纹而不是根据他们的购物记录推断出来的)这一事实增加了一些道德相关性,因为个人不能轻易改变大多数生物统计学特征(例如皱纹),但它不是决定性的因素(例如,与分类之后可能出现的特定年龄定位相比)。生物统计推断,即与永久或长期的身体、生理或行为特征有关的推断,在一般情况下可能比使用生物统计技术本身更具有伦理意义。
对人类状况(如犯罪意图、恐惧、疲劳或疾病)的生物统计检测所引起的主要伦理问题来自于其潜在的侵入性,经常分析非常私密的特征,其中一些特征超出了个人的意识。此外,以前未知的情况在向个人透露后,可能会造成压力或焦虑。
使用生物识别检测所引起的大多数伦理问题并不具体涉及到生物识别数据被用于推断病情这一事实,而是涉及到对这种病情的检测(也就是说,它们与基于购物或浏览历史的检测所引起的问题基本相同),以及关于这种病情的信息的使用方式(例如,用于操纵和利用检测到的漏洞)。同样,一个人对自己的身体、生理或行为信号几乎没有控制权,其中许多信号都是无意识的,这一事实可能使病毒检测条件具有特殊的道德层面。
生物识别检测技术所带来的基本权利风险与生物识别分类所带来的风险非常相似。然而,在生物识别检测系统领域,从伦理和监管的角度来看,值得特别关注的是检测人类情感、思想和意图的系统,可能需要一套新的 "神经权利"(如精神隐私权和精神完整性的权利)。
最近的AIA提案方向正确,但仍未能以一致的方式解决道德问题,特别是由于条款范围的各种限制。研究报告建议在《提案》中加入一个新的标题IIa,专门针对受限制的人工智能实践,包括生物识别技术和推断,确保负责任地使用这些技术,而不扼杀创新和发展。
研究报告建议,特别是欧洲议会应考虑对《提案》进行如下修正:
第3条中的定义应予修正:
“情感识别系统 "和 "生物识别分类系统 "的定义应与GDPR中定义的'生物识别数据'的概念相分离,而以'基于生物识别的数据'的新定义为基础。
关于生物识别的'远程'和'实时'的定义应稍作修改。
应引入 "生物识别推断 "的附加定义。
第二章关于人工智能禁止行为的修改:
当前关于实时远程生物特征识别的第 5(1)(d) 和 (2) 至 (4) 条应从第 5 条中删除,并转移到关于“受限人工智能实践”的新标题 IIa;
第 5 条第 (1) 款中禁止的人工智能实践清单至少应通过禁止对自然人的私人或工作生活进行全面监视以及侵犯精神隐私和完整性(进一步扩展超出 本研究的范围)。
委员会应该有可能定期调整被禁止的人工智能实践清单,可能在欧洲议会的监督下。
应该澄清其他法律(如数据保护或消费者保护法)的禁止规定仍然不受影响。
应插入关于“受限人工智能应用程序”的新标题 IIa::
新的标题IIa应该更全面地处理 "实时 "远程生物识别(或甚至是其他形式的实时远程识别),不局限于执法目的。
它还应包括关于其他生物识别系统、情感识别系统和生物识别分类系统的规定,限制此类系统的可接受性并整合目前在第52(2)条中的透明度义务。
标题 IIa 同样应包括关于基于生物识别技术的决策的新规定。
标题 IIa还包括对生物特征推断的绘制施加实质性限制并提供自动同意管理的条款。
*来源:European Parliament