近期,一系列事件引发了公众对于人脸识别技术滥用的广泛关注。随着人工智能技术不断发展,人脸识别大规模地应用于安防、支付等日常生活场景中,但这项改变生活的技术当前却处于争议中。就此,新京智库组织举办“人脸识别不能被滥用”专题研讨会,邀请多位法律学者与专业人士进行深入的探讨。
新京智库:人脸识别被滥用的现象也侧面反映了科技伦理问题,目前有哪些手段可以缓解技术与风险之间的张力?未来新技术的出现应如何建立相应的伦理,并重获公众的信任呢?
讨论人脸识别技术伦理的三个前提
段伟文:讨论人脸识别技术伦理、规范的建立,首先要考虑三个层面的问题。第一,人脸识别技术本身存在局限性和由易获得性造成的滥用风险。只要不是百分百精准,就意味着技术本身存在风险;同时,人脸识别技术也是非常容易获得的,但技术水准参差不齐,人脸识别技术因门槛低易滥用而具有很大的风险性。
第二,对于个人信息的保护和数据治理,公共部门既是数据治理的监管者,又是数据的应用者。虽然政府在很多领域具有更强的权威性,推广起来更高效,但公共使用的边界是什么,技术治理的公共伦理又是什么?
第三,从技术的长远发展来讲,其应用怎样才能普惠公众?这可能需要订立新型社会契约。没有契约,任何企业、任何人、任何地方只要存在可能就能够部署人脸识别技术,采集的数据还能够作为其他用途,这其中的风险非常大。
考虑这三点后,我们可以从三方面着手。一是相关技术的部署方和相关企业的利益相关方、受益人的责任,并且这种责任是要面向不确定性的开放后果的责任,要通过哲学上、伦理上的考量,一定程度上体现在法律里面。
二是要通过设计来保护一般使用对象、被监测对象的权利。比如对人脸数据的加密技术或者遮蔽技术。
现在,人脸识别技术已经开始打破皮肤表面和表面下的环节,通过热敏识别,在戴口罩的情况下也可以进行人脸识别,这意味着在技术上已经能够越过体表识别体内的血液循环,包括静脉曲张甚至甲亢都有可能识别。因此,需要加入相关的加密技术来保密数据;如果没有,又没有相关的法律和伦理规范,技术就不能“跑”这么快。
第三,我们不要忘记非技术性解决方案。在依靠大量技术手段时,同时要看到更多的人,包括老年人、少年儿童等需要特殊保护和关照的群体,应该提供一些技术手段之外的非技术手段来满足这些人的需要。
约束新技术需要一套新社会规制体系
薛军:高新技术的使用很受关注,需要一些社会规制,包括通过制定标准、法律法规、行业守则等。规制的体系可以很丰富而且多元化。不能把法律当作唯一能够发挥作用的角色,还需要通过更多灵活、多元化的机制。这是因为技术本身发展很快,法律很难及时制定与修改。
所以,我们一定要发展出适应高科技时代的新社会规制体系。技术准则、安全评估准则或者技术规范等,都是很有效的规制手段,都能够发挥一定的作用。具体到人脸识别技术,目前虽然有一些规制手段,但是还是欠缺。
比如小区能否使用人脸识别技术,至少得有一个相对比较权威的指导性技术准则来说明,在什么情况下,有技术保障能力、具备防范风险要求的时候可以使用,而其他情况则不能使用。如果有这样的科技准则就可以获得很好的指导,并且标准可以随着时间的演变不断发展。
同时,技术问题可能还是要回归到技术层面解决。比如像虚拟号码技术以及条码化就解决了网约车、快递件上个人信息泄露的风险;比如在进行算法模型训练时,模型动而数据不动等方式,也有利于确保不产生数据合并、转移等风险。
朱巍:对相关技术进行立法,并不是拖了技术、社会发展的后腿,而是为了维持社会更好的平衡。不能因为人脸识别技术提供了更高的效率,就把效率当作新的正义观。
效率任何时候都不可能成为正义观,除非有一定的背景制度。这个背景制度就是我们今天讨论的,人脸识别技术需要一定的约束。只有在具备约束的背景下,技术产生的效率,才能被认为符合正义观。
现在很多企业强调科技向善、强调算法伦理等问题,不是在拉效率的后腿,而是要让整个社会的福祉和个体权益的正义回到很高的位置上。人永远都是目的,而不是手段。