设为首页   加入收藏

应对人脸识别带来的公共场所隐私问题

稿源: 中国社会科学报 时间: 2020-05-26 11:36:34

近年来,一些学校在部分教室“试水”安装了人工智能(Artificial Intelligence,AI)人脸识别系统,用于日常考勤和课堂纪律管理。这一举措却引发了很多人的“不适感”,有学生认为自己的隐私被侵犯了。学校认为,这是为敦促学生学习,学生不应提出隐私问题。有关部门认为,由于教室属于公开场所,因此不存在“侵犯隐私”的说法。本文拟对此进行探究。

信息技术发展打破隐私二分格局

古代技术是组装式的,依靠自然界现有的或经过简单加工的物体组装而成。技术运作中,人被视为组装的一部分。生活与工作类似,生活操作界面与工作操作界面没有明显区别。人被单纯视为工具,是没有或很少有隐私的,即使有隐私也是些基本的出于羞耻的遮盖。隐私是自由意志的体现,隐私越多,自由意志越强。对特定目的实现或目的转换来说,“工具们”越有自由意志,目的实现越具有不可预测性。

近代以来的技术是发现式的,通过发现自然内在规律,提升技术运作能力。技术发展使人与人之间通过人造物隔离开来。随着人造物本身不断扩展、庞大,人对自然界的征服和利用越来越强,人与人之间的隔离也越来越厉害。现代社会,即使是隔壁邻居也不熟悉,与熟人社会有根本区别,这是技术发展带来的。近代以来,科学理性不断打破人对世界的神话认知,人的价值高扬,现代隐私由此产生。

与此同时,人依附于技术上的操作越来越需要通过教育、培训来完成。并且,技术操作是以完成工作目标为旨归。技术自身运作越复杂,操作要求就越高,技术对人造成的压迫也越大。人的生活操作是一方面,工作操作是另一方面。个体隐私要求,与技术操作的目标服从性,形成私人生活与工作领域的隐私二分格局。

索洛夫(Daniel J. Solove)指出,“传统上,人们是以一种二分的方式看待隐私的,将社会划分为两个截然不同的领域:公共领域与私人领域。如果某人处于公共场所,那么,他就不会期待隐私……正如一个法庭所判决的那样,出现在公共领域‘就必然放弃了法律所保护的隐私’”。一般而言,基于私人领域与公共领域的二分,传统的隐私研究倾向于将隐私问题排除在公共领域之外。

公共领域与私人领域二分,表现为公开的个人信息(Public Personal Information,PPI)与非公开的个人信息(Non-Public Personal Information,NPI)二分。塔瓦尼(Herman T. Tavani)区分了非公开的个人信息与公开的个人信息。从技术操作看,公开的个人信息主要指个体工作操作信息,既是个人的,又在公共场合呈现。非公开的个人信息主要指生活操作信息,在私人领域出现。

然而,信息技术发展开始打破隐私二分格局。信息技术不只将人工物本身信息化,而且将人与人工物的操作界面信息化,并显性显示出来。传统技术关注技术目标,信息技术开始关注目标实现过程。教室安装AI人脸识别系统,主要目的是监控学习过程,以提升学习效率。其不只是让教室更智能,而且直接窥视到人脸信息并格式化解读。教室的信息化,让监视更注重个人公开信息表现。从信息本身来看,既指向学习,也指向个人生活,造成公开信息与非公开信息的连续性。传统被视为隐私的私人信息,现在通过公开的个人信息可以考察,从而造成隐私泄露。

人脸识别打破传统隐私范围

古代社会,公共领域没有确切的界限,是占有式的,谁占有资源越多,谁越有话语权。比如,“普天之下,莫非王土”的说法。从行为角度看,公共领域是文化式的。人与技术的结合,产生不同领域的行为规范。哈贝马斯将古代公共领域称为代表性公共领域。公共领域属于少数人,对大多数人来说,没有隐私可言。古代公共空间基本上属于代表型公共空间。

随着现代观念及生活方式介入,公共领域开始转型。公共场所是公众进行工作、学习、经济、文化、社交、娱乐、体育、参观、医疗、卫生、休息、旅游和满足部分生活需求所使用的一切公用建筑物、场所及其设施的总称,为一定目的服务,开始有确切的时空边界性。在一定时间空间里,实现某一目的,这种目标导向性与个体生活存在不连续性。正是因为这种不连续性,很多专家认为公共领域没有隐私。

到了信息时代,教室等公共场所安装AI人脸识别系统,使公共场所范围大大扩展,原有的时空界限被信息冲破。传统上公共场所仅限于人眼所见,一般的微表情、微动作,并不在一般交往过程中的人眼识别范围内,更不在分析之列。当AI人脸识别可以监测到学生的微表情并进行分析时,其所限定的教室公共场所已经变了。这些微表情与个人非公开信息存在连续性。传统属于个体隐私的范围被纳入到公共场所之内。

所以,在教室安装AI人脸识别系统,并不是简单的“教室属于公开场所,因此不存在‘侵犯隐私’的说法”可以应付的。当AI人脸识别系统监测到人的微表情、微动作,并要规范人的微表情、微动作时,就已经深入到个人的私生活。现代技术可以通过技术诠释反过来考察私底下生活,就像现代考古利用碳14、古病理学、DNA检测、质谱分析和其他微观技术还原古人生活方式一样。

协调人脸识别与隐私关系

技术推动人的自主发展,教室公共目标也不存在什么问题,保护隐私又是必需的。那么,协调三者的关系是推动新技术应用的关键。

一般的思路是,从监视者与被监视者两端限制对隐私的侵犯,“教室等公共场所不存在侵犯隐私”的说法潜含着这种限制。然而,被监视者更小心地出现在有AI人脸识别系统的地方,显然缺乏可操作性。一旦出现,不管多久,都存在隐私泄露问题。另外,对监视者进行监视,使其只是在出现公共目的需要时使用人脸识别技术,似乎也不可行,监视者的公开行为确实可以有效监控,但其私人行为无法监控,否则也是侵犯隐私。

一种有效的思路是,将技术物与其操作界面区分开。人脸识别系统抓拍到人的微表情,被视为是技术物与人的接触效应,通过操作界面实现。而监视者也是通过对人脸识别系统的操作来达到鉴别其微表情的目的。可以将监视者的操作界面与真正微表情识别区隔开来,对微表情的识别和解读通过技术本身来实现,监视者只负责看最后的结果。当监视者需要看到更多牵涉隐私的信息时,可以在取得被监视者同意的基础上,通过技术人员解码达到。而技术人员不能拿到一手的技术解码信息,需要通过另外的过程来实现。简言之,扩展技术过程本身,以达到隐私保护的目的。

运用AI人脸识别技术能否提升人的学习?如果运用得当,当然可以。所谓运用得当,是建立在技术数据为个人自己所用的基础上。学生可以根据AI分析自己的表现,去改进表现,在符合自身要求上改进学习方法和态度。但如果只是监控意义上运用,侵犯人的隐私,则可能限制人的学习自由和热情,阻碍人的学习。学习说到底是个体的事,并包含波兰尼(Karl Polanyi)所说的个人知识隐性过程。

(作者单位:广东省社会科学院哲学研究所)

责任编辑:魏雨