隐私还是安全:巴黎奥运会监控法案引发争议
就在巴黎为明年举办第33届奥运会作准备之际,法国政府通过了一项新的法律,但其批评者认为,这项法律为采用可以侵犯隐私的自动视频监控技术敞开了大门。
尽管有38个民间社会组织团体反对这项法案,但是法国参议院的大多数人仍投票赞成将临时使用智能监控系统合法化以保障巴黎2024年奥运会的案文——预计本届奥运会将吸引数以百万计的游客。
除参议院之外,国民议会也以多数票通过了这项法案。法国体育部长艾米丽·乌德娅-卡塞拉认为这是关键的一步。在这样的情况下,这项备受争议的法案成为了正式的法律,并将赋予国家使用人工智能工具进行监视的权力。
通过这项法律,法国政府试图避免在此前曾损害其声誉的失败,例如伴随欧洲冠军联赛决赛而来的事件,同样,该国还尚未从2015年的巴黎袭击事件的冲击中恢复过来。
法国政府试图通过这项新法律来加强其监督权力,以确保预计将于明年7月24日至9月8日期间参加巴黎奥运会的数百万游客的安全。
这项计划将首次包含人工智能摄像头,但不会包括面部识别——法国当局坚称这种监控不会包含面部识别。但是倡导公民自由的非政府组织却发起了反对实验性的人工智能监控摄像头的运动。

引发争议的条款
这项法案包括很多的条款,而其中的第7条正是最具争议的部分,因为它规定可以在实验的基础上使用基于算法的自动视频监控,来检测异常行为并确保奥运会的安全,此外还有确保其他存在风险的体育、娱乐或文化活动的安全。
人权组织谴责这项措施,并认为它“开创了一个危险的先例”,尽管政府强调其所使用的技术不会包含任何面部识别技术——该法律规定这类设备不使用任何生物特征识别系统、不处理任何生物识别数据或是采用任何面部识别技术。
自动视频监控旨在为算法提供来自摄像机和无人机的图像,以更快地识别潜在的危险事件,例如人群开始移动、遗弃随身行李或其他可疑行为,而这些信息随后会报告给在屏幕之后监控聚集活动的安全团队。
根据这项法律的规定,这些图像可以由私人公司进行分析,然后最多保存12个月的时间,而这类实验将在2025年3月31日结束。
此外,这项法律还允许将行政安全调查措施扩展至观众以及其他重大赛事参与者所在的区域,例如运动员和代表团,拥有独家转播权的媒体或者合作伙伴,例如赞助商。
此外,人体扫描安检仪也可以在体育场以及其他超过300人参与的体育、娱乐或文化场所的入口处使用,但是必须在扫描之前取得人们的明确同意。

全面侵犯隐私
自动视频监控是一种新的技术形式,它使用计算机软件实时分析监控摄像机捕获的图像。
这项技术的支持者声称,它可以预测人群的移动并识别被遗弃的行李或者潜在的危险事故。与传统的视频监控相比,一切都将由算法负责分析,以最大限度地减少人为错误。
议会修正案试图加强这些实验的保障,具体方式包括向公众提供事先信息及人为控制措施要求、提供风险管理系统以及对有权访问分析报告的人员进行系统培训、支持和监督法国国家信息自由委员会,并让议员参与评估系统。
但是超越体育赛事的监控设备,正是这项法律中最受非议的措施之一。
尽管政府并未走到允许面部识别技术的地步,但是这项法律仍然引起了人们的担忧,而活动人士也仍然担心,这可能会导致允许政府进行自动监控,从而可能导致歧视和侵犯隐私。
对此,法国的一个倡导组织表示,“这项法律为自动视频监控的合法化铺平了道路,政府以奥运会为借口,以通过旨在加快居民监控的措施,这项法律以实验为借口而掩盖了巨大的权限。”
该组织引用一份司法报告补充称,“该法律建议试验自动视频监控,尽管目前没有对现有设备进行一般性评估,也没有任何经过科学证明的好处。”
另一方面,国际特赦组织称,“法国将自己宣传为全球人权捍卫者,但其在奥运会期间将人工智能驱动的大规模监控合法化的决定,却会导致针对隐私权、抗议权以及集会与言论自由权的全面攻击。”
有38个公民社会组织在一封信件中表示,“奥运会是一项巨大的事件,其特殊的规模允许实施和加速类似的特殊政策,这类事件是安全立法创新的机会,但我们拒绝第7条的内容,因为这将为在公众场所进行不合理和不成比例的监控创造一个令人不安的先例。 与此同时,国家信息自由委员会要求提供保障,以限制数据风险和侵犯隐私的行为。
人权观察组织认为,第7条规定构成了“对公民自由和民主原则的严重威胁,而该法律的适用代表了以保障重大事件安全为幌子,促进特殊监视权正常化的又一步”。

一些民间社会组织认为,法国是欧盟27个成员国中第一个将人工智能监控合法化的国家,即使此举是暂时性的,却也违反了国际人权法。
国际特赦组织表示,“使用监控系统有可能将法国变成一个监控国家,这是对隐私权、抗议权以及集会和言论自由权的全面侵犯。”
这项法律的反对者担心,这项技术可能会把重点放在那些在公共场合花费大量时间的人员身上,例如无家可归者。他们还表示,这项法律为该技术在无人机摄像头上的应用铺平了道路。
该算法引起的一项担忧在于,它可能会包含歧视性的偏见——它是使用一组由人类设计的数据来进行训练的,而设计它的人员便能够将歧视性的偏见纳入其中。
另一方面,法国政府认为,这项法律所规定的限制措施,足以防止出现歧视性的做法。但其反对者表示,“政府保证并不能让我们放心,并不可能存在真正意义上的修正,而且这项技术本身就存在问题,并且会对人权构成威胁。在进行认真评估并确定其使用的必要性和相称性之前,它还将一直如此。”
自动视频监控的反对者们还担心,其最初的特殊用途可能会在以后变成司空见惯的情况,因为体育赛事经常被用作新技术的试验场。国际特赦组织担心视频监控还可能在随后导致生物识别监控或者音频监控的使用。
给全欧洲敲响警钟
部分欧盟代表也对巴黎2024年奥运会的监控措施表示担忧。
欧盟的通用数据保护条例,将生物识别数据定义为可用于识别个人身份的任何身体、生理或行为特征。
如果安装摄像头的目的是检测公共场所中的某些可疑事件,那么它们必然会捕捉并分析出现在这些空间内的个人的生理和行为特征。
欧洲议会议员在致国民议会议员的一封信件中,对该法案的第7条表示反对,并指出该条款威胁到隐私权、数据保护和言论自由——该条款规定,自动视频监控摄像机拍摄的图像可能会受到包括人工智能系统在内的工具的处理。
这封信指出,“必须阻止欧洲走向生物识别和大规模监控的未来”,“法国正在以奥运会为借口,为制造欧洲前所未见的监控先例奠定基础。这项行动威胁到了隐私权、数据保护和言论自由权的核心,从而违反了国际及欧洲的人权法律。”
这封信件的签署人声称,这项法律与欧盟人工智能法律中使用的语言相矛盾——后者禁止对人类特征、生物特征和行为信号进行自动分析。
此外,这封信还警告称,允许人工智能监控将会开创一个危险的先例。根据这些议员们的说法,尤其是鉴于迄今为止只有极少数国家采用了这类技术。