AI风险迫使企业隐私负责人扩大监管范围
包括可口可乐和汇丰控股在内的跨国公司的隐私团队正更多地与其他高管合作,共同应对AI风险。
图片来源:Jose Sarmento Matos/Bloomberg News
人工智能(AI)的发展正迫使企业隐私负责人与网络安全、数据分析和其他业务部门密切合作,共同应对新技术项目中的风险。
包括可口可乐(Coca-Cola)和汇丰控股(HSBC)在内的跨国公司正在重新思考他们的隐私领导者如何与其他高管互动,以处理AI模型的数据。
支付处理公司万事达卡(Mastercard)负责隐私、AI和数据保护的助理首席法律顾问Pagona Tsormpatzoudi本周在布鲁塞尔的一次隐私会议上发言时说:“我们今天所做的工作远远超出了狭义上的隐私。”
她说,万事达卡隐私团队扩大了对潜在数据风险的评估范围,从个人数据的使用扩大到考虑AI对群体的影响。
研究人员、公司和执法部门都已发出警告称,AI模型可能会提供有偏见和不正确的结果。美国官员举例说,AI工具在招聘中可能会歧视残疾求职者。
监管机构和议员正在加大对公司使用AI的审查力度。欧盟提出了一项监管AI的法律,立法草案包括对生物识别监控的限制。美国总统拜登(Joe Biden)上个月发布了一项关于AI的行政命令,要求公司在开发可能对国家安全构成严重风险(包括网络安全威胁)的应用程序时,必须通知美国政府。5月份,AI初创公司OpenAI首席执行官Sam Altman等AI领袖在国会就该技术的潜在危害作证。
意大利数据保护监管机构成员Guido Scorza表示,鉴于缺乏针对AI的具体法律,如果AI系统影响到个人数据,监管机构仍应执行现有的隐私法,如欧洲的《通用数据保护条例》(General Data Protection Regulation)。他表示:“我们不能坐等AI领域的具体新规。”
3月份,意大利数据保护局(Italian Data Protection Authority)暂时禁止OpenAI的生成式AI聊天机器人ChatGPT使用意大利居民的数据。在OpenAI做出让步后,这家意大利监管机构于4月撤销了禁令;OpenAI的让步包括,为人们创建一个在线表格,让他们可以选择不将自己的信息用于训练支持ChatGPT的语言模型。OpenAI还透露了更多关于如何运营ChatGPT的细节,包括提供更多关于该服务如何处理数据的信息。
银行业巨头汇丰的数据隐私和数字业务全球主管Cameron Craig在同一次会议上发言时说,对于在多个国家开展业务的大公司来说,应对AI风险尤其具有挑战性。
该行的隐私办公室负责监督该行对欧洲全面隐私法的遵守情况。Craig说,随着AI项目的进展,他的团队越来越多地与银行的其他部门进行协调。例如,他们要确保不同辖区的员工在使用AI时遵循相同的审批流程。
软饮料巨头可口可乐负责欧洲、澳大利亚和太平洋地区市场的业务子公司Coca-Cola Euro-Pacific Partners的法务总监Silke Engel说,在可口可乐公司,不同的业务领域在试点生成式AI项目,这需要具备一系列专业知识的专业人员,以确保输出信息正确无误。
Engel在上述会议上说,这意味着可口可乐的隐私管理人员需要与公司其他部门的相应人员一起应对AI风险,以避免隐私受到侵犯,以及在被黑客攻击的情况下公司敏感数据遭到泄露。她说:“整个公司都要负起责任。”