人工智能机器人模拟社交媒体平台行为的惊人结果
据《商业内幕》(Business Insider)报道,一组研究人员创建了一个小型社交媒体平台,用于监控人工智能机器人的行为,并发现这些机器人开始组建极端化群体。
该平台包含 500 多个由 OpenAI 的 GPT-4 或 Mini 算法驱动的聊天机器人。每个机器人都被赋予了个性,包括其政治和意识形态倾向。
这些人物设定反映了真实人类在年龄、性别、收入、教育程度、党派倾向、意识形态、宗教信仰以及个人兴趣等方面的分布,这些数据来自美国全国选举的数据库。
这项研究由阿姆斯特丹大学社会计算科学助理教授 彼得·托恩贝里(Peter Thörnberg) 和该校研究工程师 迈克·拉罗格(Mike Laroche) 领导。
研究人员随后使用 Meta 的 Llama-3.2-8B 和 DeepSec 模型重复了相同的实验,以测量实验的实际结果,所得的模式与 OpenAI 看到的模式相似。
没有算法的社交媒体平台
研究人员开发的平台不包含任何用于推广特定帖子或付费广告的算法,以确保研究结果的质量并免受外界影响。
该研究还依赖于五个独立实验,每个实验涉及超过 10,000 次互动,其中机器人可以自由发布、关注和推广,模仿现实世界的社交媒体平台。
研究发现,机器人会被那些与自己政治观点相同的人吸引,形成了一个个志同道合的小圈子。党派观点获得了相当一部分关注,而争议性更强、更极端的帖子则吸引了最多的关注者和转发。

很快,一群极端分子主导了话题,他们的声音变得最广泛、最受关注,模仿着现实世界的社交媒体影响者。
研究人员尝试了一系列措施来减少主流群体在对话中的传播,但无济于事。这些措施包括隐藏粉丝数量、实施内容算法使其内容无法出现在列表顶部,以及隐藏热门内容。
挑战传统观点
研究团队表示,他们的实验挑战了“社交媒体算法是导致平台内容失衡的原因”这一主流观点,因为该测试平台完全没有使用任何形式的算法。
他们补充说,社交媒体平台中存在的问题可能根植于平台的基本架构,这种架构依赖通过情绪化参与来推动网络规模的增长。
并非首次
这并不是首次使用人工智能机器人模拟人类在互联网上的行为。2023年,托恩贝里曾领导另一项研究,让500个聊天机器人在模拟社交媒体的环境中阅读新闻并进行讨论。

在那次实验中,托恩贝里完全依靠 ChatGPT-3.5 构建了整个实验,包括虚拟人物设定。
而早在2020年,Facebook也进行过类似的实验,在其平台的模拟环境中全部使用人工智能机器人代替真人,以研究网络上的有害和不良内容。