新刊出炉!点击上图,一键下单↑↑↑
「隐私焦虑」
2021年6月10日,十三届全国人大常委会第二十九次会议通过了《数据安全法》。这是我国第一部有关数据安全的专门法律,将于2021年9月1日起施行。生效之后,《数据安全法》将与《网络安全法》以及正在立法进程中的《个人信息保护法》一起,全面构筑中国信息及数据安全领域的法律框架。
《数据安全法》的出台是一个很好的时机,让我们重新思考个体与社会之间的边界。什么应该被知道?什么可以被知道?什么应该保持未知?谁有权力知道?作为个体,我们应该在多大程度上揭示自己?哪些信息是属于我们自己的,哪些是可以交付给社会的?而社会可以多大程度上“知道”它的成员?
以下是我几个朋友的故事:
H,系统常年为她推送奢侈品、别墅广告以及各种针对孩子的网络课程,虽然她的房子是租的,也至今未婚,更没有孩子。她至今没明白系统对她的误解到底从何而来,仅仅是因为她租住在北京顺义的某处繁华地段吗?
Y,小区最近推行“刷脸进门”,入口处安装了一个搭载着摄像头的自动门,只要业主的面孔信息登记在册,刷脸就能长驱直入。物业做了几轮动员工作,很多老头老太太都热情地拥抱了新科技,但他宁愿每天都先下车,跟打瞌睡的保安招呼一声才能进小区。因为他刚刚玩过一个叫《黑客网络》的游戏,粗浅地体会到一个黑客看待世界的眼光,而在一个黑客的眼中,人脸数据是多么容易被篡改和盗取。
你是谁?我们的社会似乎越来越关心这个问题。监控摄像头、人脸识别、智能手机、社交网络、信用卡账单、心理测试……无时无刻不在收集、加工、处理关于我们的信息,并且许诺我们安全、便利,甚至认识自我。
我是谁?我们似乎也越来越乐于向社会透露答案。无论在现实生活,还是在网络上,我们都留下了大量的个人数据——健康、交通、教育、职业、银行、各种消费行为……事实上,我们的整个生活都在被一一记录,并转化为系统中的数据,但我们却很少去想这些数据意味着什么。
百度董事长兼CEO李彦宏曾说,“中国人对隐私问题的态度更开放,也相对来说没那么敏感。如果他们可以用隐私换取便利、安全或者效率,在很多情况下,他们就愿意这么做。当然我们也要遵循一些原则,如果这个数据能让用户受益,他们又愿意给我们用,我们就会去使用它。我想这就是我们能做什么和不能做什么的基本标准”。
这话说得不算有智慧,却是大实话。很多时候,我们对隐私并不怎么在意。我们不知道隐私到底是什么,为什么有价值。我们常常对满大街的监控摄像头视而不见,因为我们默认用隐私交换安全是值得的。我们心甘情愿地将数据交给互联网大公司,不管他们会拿这些数据做什么。我们饶有兴致地追看网络直播,因为我们觉得,隐私可以娱人娱己。
隐私与自由有关,是我们在自己和那些想要影响我们的力量之间保持界限(插图|Anonymous)
但是,即使对隐私再“开放”的人,当他们与网络上无数双隐形的目光正面相对时,也多少会感到不安和焦虑。 “从2006年到现在,每隔一两年,我们都会在全国范围内做关于公众安全感的社会调查,一个很有趣的发现是,人们对于个人信息和隐私的安全感一直在下降。”中国社会科学院社会学研究所社会心理学研究室主任王俊秀告诉本刊。
很显然,这种不安与互联网的普及有关,与频繁发生的网络欺诈、数据泄露有关,但更重要的,我们不知道,拿隐私做交易的代价到底是什么。
王俊秀的博士论文是从权力的基本理论出发讨论监控社会的隐私边界问题。“9·11”之后,美国及西方主要国家以国家安全为理由公开和非公开地加强对个人信息的监视,而西方民间社会以往很强的个人信息和隐私保护力量被迫退缩。当时西方人的焦虑在于,公共权力的无限放大和个人隐私的无限缩小。但是,这个问题能讨论的空间很小,所以博士论文写完之后,他基本上就把这个问题放下了。直到十年后,他注意到,大数据出现之后,关于隐私的讨论有了一个很大的变化——“现在的监控更多的不是对政府、对公共权力的担忧,而是对商业机构的担忧。”
英剧《捕风捉影》剧照
我们活在“大数据时代”,但大数据的重点不在“大”,而在于关联度。美国社会学家丹娜·博伊德和凯特·克劳福德曾说,“大数据本质是关联的,它的价值源自在不同的数据集之间建立连接,从中推断出某些模式,关于个人,关于个人与他者的关系,或者仅仅是关于信息的结构本身”。
网易音乐知道你喜欢听什么歌,人人视频知道你喜欢看什么美剧,京东知道你喜欢什么洗发水品牌,微信知道你深夜与朋友聊些什么,陌陌知道你喜欢什么样的女孩子,美团知道你喜欢吃什么菜,支付宝对你每天的花销开支了如指掌,网约车平台知道你一天的出行路线,我们头脑中最隐秘的困惑、幻想、欲望都在搜索引擎里……这些不同的数据库记录了我们在不同领域的微观现实,每一个领域的行踪看起来都很不起眼,但一旦这些数据库联接成一个涵盖个人全部生活现实的共享网络,这些数据就可以拼凑出这个人的完整的“数据肖像”。
如果你曾经试图拼凑过自己的“数据肖像”,或者在推送给你的某些定制广告里瞥到了自己的“数据肖像”的碎片,很可能你也会悚然心惊:我们制造了所有这些数据,但对于它们如何被采集、加工和使用,却一无所知。
也可能你会怀疑,商业机构的“监控”能糟糕到什么地步呢?他们无非想让我们花钱买点东西而已。
但监控,本质上与权力有关。知识就是权力。一个人对我们了解越多,就越能对我们的思想和行为施加影响。哪怕我们从来没有实施过操纵或控制行为,当我们系统地搜集关于某人的私人数据时,也已经是将其视为一种被操纵或控制的对象。
2018年“剑桥分析”事件曝光,美国选民们才意识到,他们在脸书上的人格测验和日常的点赞行为,会被用来关联建模,分析他们的政治倾向,推送特定内容,甚至影响到总统选举。“剑桥分析”事件之所以震动全世界,是因为它让我们看到了商业领域的个人数据滥用,竟然可以动摇一个民主国家的政治根基。
2018年3月29日,剑桥分析公司的前员工克里斯托弗·怀利在国会广场参与抗议活动。他向《卫报》曝光了剑桥分析公司进行幕后操作的文件。
这起丑闻直接导致剑桥分析公司宣布破产,Facebook的市值两日内蒸发500亿美元,并接受了50亿美元的巨额罚款。但是,“剑桥分析”事件绝非孤例。
关于监控社会,“老大哥”曾经是最深入人心的隐喻。这是英国作家奥威尔的政治小说《1984》中的代名词。事实上,“老大哥”在整本小说中从未露面,但他却无处不在,让人无时无刻不怀疑自己正在被他的目光监视着。“你必须假设自己发出的每一个声音都在被监听,而且,除了在黑暗中,每一个行为也在被审视,这种假设已经成为习惯,进而变成了一种本能。”
这种目光很容易让人联想到圆形监狱。“圆形监狱”是英国哲学家边沁在18世纪末期设计的特殊建筑。它由一个中央塔楼和一个环形建筑组成,塔中的监督者能够透过塔楼的百叶窗随时观看被监督者,而被监督者只能被观看,却不能看到塔楼的情况。
美国斯泰特维尔惩教中心是一座圆形监狱,于2016年停用
在这种看/被看、可见/不可见的二元机制中,监控“无需时时进行,但时时有效”,因为被监控者意识到自己始终处于权力的可见范围内,却无从知晓什么时候受到监控,所以被迫每时每刻服从规则,从而保证了权力的自动生效。
法国哲学家米歇尔·福柯进一步发展了这个概念,认识到这个模型不仅可以用于监狱,也可以用于任何控制人类行为的机构:学校、医院、工厂、工作场所。就本质而言,这是一种灵魂的控制和规训。人担任了自我的审查代理人,却仍然幻想着自己是自由和自主的人。
但是,无论奥威尔,还是福柯,恐怕都无法想象今天我们所处的大数据社会的风景。
摄像头、GPS、人脸识别、RFID芯片、可穿戴设备……现代科技与资本、政治的融合,构造了一个巨型的“圆形监狱”,对人们的日常生活进行全面监控,把规训的权力内化到个体的心理结构。
俄罗斯Mikron公司的产品线组合中,有RFID芯片、智能卡等
英国社会学家齐格蒙特·鲍曼在分析现代社会的特征时,用了“流动性”的概念,大意是现代性致力于拆解规则、贬低规范、去除管制,把所有权利下放给市场和个体,其结果是一切神圣的、坚固的、持存的东西都消失了,整个世界被液态的、偶然的、不确定和不安全的因素所占据。
数据收集和追踪也呈现出相似的“流动性”特征。
就是说,不再是封闭的、具体的,而是开放的、不断流动的,在机构内部和不同的机构之间流动。所以,你很难知道,这些个人数据从哪里来,会到哪里去,比如商业监控的数据可能会进入政治监控。
据报道,迪斯尼公司为主题乐园开发的人脸识别技术曾被卖给美国军方。而美国国家安全局和英国政府通讯总部曾利用“有漏洞”的手机应用程序,例如《愤怒的小鸟》、谷歌地图、脸书、推特等,大量收集包括用户的年龄、位置乃至性取向等个人信息。正是鉴于这种流动性的特征,你根本不知道要拿这些数据怎么办。因为它无处无在,而且时刻处于变动之中。
2018年4月10日,扎克伯格作为唯一证人出席参议院商业和司法委员会联合听证会,就此向美国议员为“剑桥分析”事件做出解释。
巨量的数据是我们主动递交的,比如,浏览网页时,我们的浏览记录将被传送给企业来挖掘有用的数据;使用电子支付时,匿名的现金消费行为转变为可追踪的电子记录;在网站注册时,会主动提供个人信息……在《1984》的世界里,人们最大的恐惧是“我永远不能独自一人待着”。但是在今天的世界里,这不仅不是噩梦,反而成了一种祝福——“我永远不再孤独”。
如鲍曼所说,“隐私不再意味着自由、个体,而是孤独、被抛弃、被忽视、被排斥。”他认为,这种转变与社会形态的转变有关。流动性的社会是一个每个个体都要独自承担各种风险和不确定性的社会。在这样的社会里,人们主导型的恐惧是对被排斥的恐惧。正是因为这种压倒性的恐惧,我们躲避到网络的世界里,暴露隐私的恐惧被获得关注的喜悦所替代。我们在他人的点赞中找到存在的意义。为此,我们自愿地将自己交付给全景注视,通过自我暴露和自我展示,主动为大数据时代添砖加瓦。
从某种意义上讲,一个自由的人对自己做出的决定拥有绝对权利。当他思考事情时,他的决定能反映出他最深层的价值观。可是,当我们“自由”地点击“购买”按钮时——事实上,这些点击记录已经被某些公司录入了数据库。我们真的是自由的吗?
想象一下,如果你的人生有一把钥匙或者密码,可以通往你的家、你的卧室、你的日记、你的计算机、你的手机、你的汽车、你的保险箱、你的健康记录……你会复制一把钥匙,拱手交给一个陌生人吗?
隐私首先是自我保护。我们的心灵需要一个属于自己的私人领域,免于他者的窥探、评判和侵扰,不成熟的想法、情绪、信念在其中可以得以自然舒展、酝酿和成熟。如果没有这样的空间,任何真诚的关系都是不可想象的,因为人与人之间在亲密关系中交换的恰恰是隐私。
然后,隐私还关乎自由,是我们在自己和那些想要影响我们的力量之间保持界限。权力的一方,无论个体还是机构,想以他们想要的方式影响我们的思想和行为。而隐私,则保护我们不受他们的影响。
哈佛大学教授肖珊娜·佐伯芙曾说,过去20年来,无论走到哪里,她都能感受到一种她无法理解的权力的压迫,让她感到不安、焦虑、失控,被操纵,丧失自由。2014年,她终于找到一个词为这种压迫她许久的权力命名——“监控资本主义”。
(插图|Anonymous)
佐伯芙用这个词为过去20年来在硅谷兴起的一种基于数据监控的新兴资本主义经济秩序命名——命名是对抗的第一步。在《监控资本主义的时代》一书中,她详尽地分析了“监控资本主义”的具体运作机制和商业逻辑:以谷歌、脸书、亚马逊为代表的硅谷高科技公司通过收集和挖掘人们的原始行为数据,对其进行分析和加工,从原先异质性的、非结构化的数据中生产出有效的、结构化的数据产品。这些数据产品能够帮助信息技术公司预测人们未来的消费行为,从而有针对性地投放广告和商品,实现这些数据产品潜在的商业价值,从中获得巨额收益。
我们常常听说,“如果你用的产品是免费的,那么你自己就是产品。”但她说,不对。事实上,你连产品都不是,你不过是一个被用完即弃的残骸而已。
在“监控资本主义”的逻辑之下,人类经验是监控资本主义可以随意开采的免费原料,而他们的产品则被摆在“行为未来市场”上明码标价出售。
这些公司知道我们最深的恐惧是什么,最好的朋友是谁,最喜欢的厕纸是什么牌子,所以,他们可以在我们情感最脆弱的时刻推送个性化——譬如减肥/瘦身/整容——的广告;在我们人生的关键时期——譬如怀孕时——发送能改变终身购物习惯的优惠券;根据不同的人格特征和性格取向,为我们推送可能影响选票的政治选举广告。随着技术的进一步发展,他们不仅能比我们自己更早知道我们想要什么,甚至还能在我们毫无觉察的情况下为我们凭空制造出欲望来。
对我们而言,危险不再是隐私的泄露,而是被预知的可能性
——这些能预测我们可能生病、拖欠还款和犯罪的算法会让我们无法购买保险、无法贷款、甚至在实施犯罪前就被预先逮捕。
你对他们一无所知,而他们对你无所不知。佐伯芙认为,这种知识与权力的不对等,不仅是对个人隐私的侵犯,更是对整个社会根基的侵蚀。而且,用户的无知并非出于愚笨,而是监控资本主义的刻意隐瞒和操纵。网飞的纪录片《智能陷阱》《隐私大道》详细记录了他们如何利用和操纵人类的心理弱点,攫取最大量的隐私和注意力,并卖给广告商以获取巨额利润。
本期更多精彩
| 社会 |
已同步到看一看
写下你的想法