不可否认的是,人脸识别作为一种生物识别应用,识别验证个人身份,已经越来越多地在日常生活中出现。它会在社交媒体上“标记”人们,解锁智能手机。在中国,它还被用于机场办理登机手续,监测学生学习时的注意力,甚至用于在公共厕所分发纸张。
在目前普遍缺乏具体管理规则的情况下,不管是民主国家,还是集权国家,私营公司还是公共机构为了达到目的,都采用了这种技术。然而社会上人们不仅对于人脸识别的伦理问题没有达成共识,还对人脸识别的合法性和长期道德可持续性产生了越来越多的质疑。
人脸识别的目的乍一看似乎毫无争议:在欧盟国家过境时用面部图片来识别个人身份。但是通过比较个人图像和一个广泛已知图像数据库,确定一个未知的人的身份其实是在另一种层面的侵入个人领域。
人脸识别技术的盛行背后似乎有两大驱动力。首先,政客们出于一种普遍的不安和恐惧,将外国人的跨境流动与犯罪和恐怖主义联系在一起。人脸识别是一种高效安全的维持公共秩序和控制边境的工具。其次,面部识别避免了体力和脑力劳动,为了便利,有些人更愿意不用出示文件就能进入某个区域获得服务。
法国的目标是成为欧洲第一个使用这种技术来授予公民数字身份的国家。与此同时,最近瑞典数据保护局(Swedish data protection authority)却对一所测试利用人脸识别技术追踪学生出勤率的学校处以罚款。
虽然在GDPR和数据保护指令实施的谈判过程中,关于人脸识别的争论并不多,但立法目的是让它能够随着技术的发展而与时俱进。然而,就像所有形式的数据挖掘和监控一样,人脸识别的隐私和数据保护问题是非常明显的,具体阐述如下:
第一,欧盟的数据保护规则明确适用于生物识别数据的处理,“与自然人的身体、生理或行为特征相关,允许或确认自然人的独特身份”(GDPR第2条14款),生物识别数据包括人脸图像。GDPR一般禁止为了单纯的识别目的处理生物识别数据,除非具有第9条2款所列的10项豁免情况之一。
第二,任何对宪章第五十二条所规定的基本权利的干涉都必须是明显必要的。干涉越严重,要求就越高。有任何证据表明我们需要这项技术吗?真的没有其他更少干扰的方法来达到同样的目的吗?显然,仅用“效率”和“方便”作为实施技术的理由是不够的。
第三,考虑到人脸识别依赖对敏感数据的大规模处理,这种技术的应用是否有合法的法律依据?人们有知情权,自由选择权,对人实施这一技术需要人们的明确同意。然而,当人们处于被面部识别监控覆盖的公共空间时,一旦人们需要进入这一地点,他们就不能选择退出,只能选择接受。根据第9条第2款,当技术可以保证介入他人人权领域是合理和必要的,国家立法者和欧盟立法者有权酌情决定使用这种技术。
第四,问责制和透明度。到目前为止,这项技术的部署一直是默默无闻的。我们基本上不知道收集者如何使用数据,谁有权限访问数据,数据被发送给谁,保存数据的时限,个人信息如何形成,以及对于这些自动的决策,由谁来承担责任。此外,几乎不可能追踪输入数据的来源,未经许可的情况下,人脸识别系统从互联网和社交媒体上收集了大量图像。因此,任何人都可能成为冷酷算法的受害者,被分门别类,甚至是区别对待。
最后,该技术是否符合数据最小化和保护数据义务等原则值得高度怀疑。人脸识别技术从来都不是完全准确的,被错误地识别为罪犯或其他人会造成了严重的后果。对准确性的追求又会导致无穷无尽的敏感数据收集,以完善一个最终不会完美的算法。事实上,永远不会有足够的数据来消除偏差和误报以及其导致的风险。
然而,我们不应该只关注隐私问题,对于一个民主社会来说,这还是一个基本的伦理问题。一个人的脸是她身份和独特性的一个珍贵而脆弱的元素。随着时间的推移,外观会改变,人们也可能会选择化妆或整容,这是人们的基本自由。通过强大的公司和政府控制的自动化程序,将人脸变成衡量和分类的对象,触及了人格尊严。如果再加上其他公开信息和大数据技术,个人的言论和结社自由显然会受到影响。
作为一个不存在的问题的解决方案,人脸识别正在被广泛地推广。这也是为什么世界各地的许多司法机构已经采取行动,暂停使用这项技术。我们不仅需要评估技术本身的价值,还需要预测越来越广泛地应用技术可能的发展方向。下一个阶段将会采用其他的形式来使人的步态,情绪,脑电波客观化。欧盟是时候决定面部识别技术能否在一个民主社会得到应用。如今欧盟正在讨论人工智能的伦理问题和监管的必要性。如果答案是肯定的,那么只有到那时,我们才能转向如何实施保障措施和落实问责的问题。
文章来源:公众号数据法盟,转载请标明出处,发布此信息的目的在于传播更多信息,如有侵权请联系删除。