测试显示Instagram向未成年用户账号推送色情视频
登入仅三分钟之内,成人性内容的博主就开始出现在视频流中。在Reels上浏览不到20分钟后,这些测试账号的视频流就已经充斥着这些博主的推广,有些甚至还向浏览其视频的用户发送裸照。
在Snapchat和TikTok的短视频产品上进行的类似测试并未向未成年用户推送这样的性暗示视频。
“这三个平台也都表示,在向青少年推送哪些内容方面存在差异,”Edelson说。“但在TikTok上,即便是成人用户,被推送的露骨内容似乎也比Reels上的青少年用户少得多。”
Meta认为这些测试结果不能代表青少年用户的整体体验。
该公司发言人Andy Stone说:“这是一个人为的实验,与青少年使用Instagram的实际情况不符。”
Stone表示,公司仍在采取行动防止系统向未成年人推送不适当内容。他说:“我们长期致力于解决青少年用户问题,已开始设法进一步减少青少年可能在Instagram上观看到的敏感内容数量,过去几个月这些内容的数量有明显减少。”
Edelson和《华尔街日报》的大部分测试是在今年1-4月期间进行的。《华尔街日报》在6月份进行的另一次测试发现问题依然存在。这次测试新设置了一个显示用户年龄为13岁的账号,仅观看Instagram推送的女性为主角的视频,在创建后半小时内这个测试账号就开始被推一个又一个有关肛交的视频。
内部检查
据现任和前任员工以及《华尔街日报》看到的文件,Meta员工的内部测试和分析也发现了类似问题。这些文件属于此前未公开的公司关于青少年在Instagram上有害体验的研究内容。前员工称,2021年,公司安全人员进行了与Edelson和《华尔街日报》类似的测试,得出了差不多的结果。
《华尔街日报》看到的另一份2022年内部分析报告发现,Meta早就知道Instagram向青少年用户展示的色情、血腥和仇恨言论比成年人要多。在公司进行的调查中,Instagram上青少年用户报告的对欺凌、暴力和不良裸露内容的接触比率超过了高年龄段用户;该公司的统计数据证实,Instagram向儿童提供违反平台规则的内容的可能性非常大。
根据这份2022年的内部分析报告,青少年看到的含有裸露内容的违规帖子数量是30岁以上用户的三倍,青少年看到的含暴力内容帖子与含欺凌内容帖子数量分别是30岁以上用户的1.7倍和4.1倍。该文件称,Meta为防止向青少年提供此类内容所做的自动化工作往往过于薄弱,难以奏效。
这份文件建议,防止向未成年用户提供不当内容的最有效方法是建立一套完全独立的青少年推荐系统。Meta并未采纳这一建议。
据公司工作人员称,包括Instagram负责人Adam Mosseri在内的一些高管对向儿童过度展示成人内容和其他违规内容表达了担忧。
Reels算法的部分工作原理是,根据用户在哪些视频上停留的时间更长来判断他们的兴趣,进而推荐类似的内容。
Meta制定了管理此类推荐系统的政策。根据相关指导原则,不得向任何年龄段用户推荐带有性暗示的内容,除非此类内容来自他们的特别关注账户。
根据Meta今年1月发布的公告,16岁以下青少年根本不会看到露骨的色情内容。
在《华尔街日报》和东北大学的Edelson进行的十几次人工测试中,未成年人账户没有关注任何人,也没有搜索任何内容,以避免可能影响Instagram内容推荐的活动。
这些账户一建立就开始观看Reels视频。最初观看的短视频以传统喜剧、汽车或特技表演为主,也有人们受伤的镜头。测试账户滚动浏览了这些视频。
这些账户观看了Instagram推荐的视频,视频中的图像包括一位女性在跳舞或摆出可能被视为性暗示的姿势。这些账户没有点赞、保存或点击任何视频。
经过几次简短的测试后,Instagram基本上不再推荐那些喜剧和特技视频,而是源源不断地向测试账户推送某些视频,这些视频中的女性在带有挑逗性歌词的音乐中模仿性行为、生动地展示她们的身体结构或抚摸自己。
在Instagram推荐给一个显示用户年龄为13岁的测试账户的一个视频片段中,一名成人表演者承诺通过直接消息向任何对她的视频发表评论的人发送她的“胸包”照片。另一名成人表演者则对着镜头让她的生殖器官一闪而过。
随后几天的更多测试中也出现了同样的性有关内容的组合,同时还有来自大品牌的广告。
TikTok和Snapchat的表现
TikTok以及Snapchat的Spotlight视频功能背后的算法运作原理与Reels类似。
它们的工作原理都是通过对数十亿条视频帖子进行过滤,剔除那些未通过特定质量测试的帖子、预测包含“不适合推荐”内容的帖子,或者根据用户的语言、年龄或地理位置在逻辑上不合理的帖子。然后,这些系统会根据预测的用户观看可能性,从剩余的视频中进行个性化推荐。
尽管它们的系统机制相似,但《华尔街日报》和Edelson进行的测试发现,TikTok和Snapchat都没有像Meta那样向新创建的青少年账户推荐含有大量性内容的视频。
在TikTok上,完整观看了劲爆视频的成年新测试账户会收到更多此类内容。但行为相同的新青少年测试账户几乎从未看到过此类内容,即使未成年测试账户主动搜索、关注并点赞成人性内容创作者的视频也是如此。
一位TikTok工程师将这种差异归因于对未成年用户实行更严格的内容标准,以及在限制推荐时对误检结果有更高容忍度。
TikTok发言人说:“我们的做法是宁枉勿纵。”并补充说,青少年能接触到的内容总体而言更为有限。
在Edelson在Instagram上进行的测试中,成人和青少年测试账户持续看到来自成人内容创作者的视频,而且比例相差无几,这意味着差异化程度要低得多。在某些情况下,Instagram推荐青少年账户观看已被平台标记为“令人不适”的视频。
Meta表示,根据定义,被贴上“令人不适”标签并前置了警告信息的内容不应向儿童展示。Stone将这一结果归咎于一个错误,并表示Meta开发了50多种工具和资源,帮助在其平台上为青少年及其父母提供支持。
内部辩论
Meta高管一直在争论如何解决向儿童显示年龄不适内容的问题。在去年年底的一次会议上,高层安全人员讨论了将未成年人看到被禁内容的频率降低到成年人看到的水平是否足够的问题。
据知情人士透露,Instagram负责人Mosseri在这次会议上说,鉴于Meta在其平台上有关青少年安全的公开声明,达到同等水平是不够的。有了这次会议作铺垫,Meta在今年1月宣布会自动将青少年默认设置为最严格的内容设置,以避免推荐性暗示内容或有其他问题的内容。
这一努力能否成功还有待观察。
据Meta负责儿童安全事务的现员工和前员工称,包括总法律顾问Jennifer Newstead在内的Meta高级律师也从去年下半年开始向公司高层领导提出,Facebook和Instagram上的儿童安全问题带来的法律和监管风险未得到足够重视。
这些员工表示,在经历了多年的预算紧张、政府官员加强监督以及公司法务部门提出建议之后,Meta最近加大了对儿童安全工作的投资。
相关阅读: