当500个AI被放进一个社交平台自由行动会发生什么

当500个AI被放进一个社交平台,它们会做什么?

当500个AI被放进一个社交平台自由行动会发生什么-2

答案是: 抱团、站队、打群架。

最近,阿姆斯特丹大学的研究人员做了一个有趣的实验:

他们创建了一个极简的社交平台, 没有广告,没有算法推荐,只有最基本的发帖、转发和关注功能。

然后,他们放进去500个GPT-4o mini聊天机器人,每个都有独特的人设。

(别问为什么用4o-mini,问就是图它便宜。 当500个AI被放进一个社交平台自由行动会发生什么-3

而这500个人设来自美国国家选举研究(ANES)数据集,涵盖了年龄、性别、收入、教育、党派、意识形态、宗教和个人兴趣等真实世界的分布。

当500个AI被放进一个社交平台自由行动会发生什么-4

研究者甚至还用LLM生成了更丰富的用户简介,包括推断的职业和详细的爱好。

实验设计很简单:

每个时间步,随机选择一个用户,它可以发新帖(基于新闻内容)、转发现有内容,或关注其他用户。

时间线则包含10个帖子,5个来自关注的用户,5个来自未关注但高参与度的内容。

三大病症

经过5次实验,每次10,000个操作后,研究者发现这个AI社交平台完美复现了人类社交媒体的三大顽疾。

当500个AI被放进一个社交平台自由行动会发生什么-5

第一,回音室效应爆表。

来看具体数据:

当500个AI被放进一个社交平台自由行动会发生什么-6

E-I指数达到了 -0.84 ,这意味着AI们几乎只和「自己人」玩。

通过标签传播算法检测出的社区结构,与政治立场高度吻合:共和党AI(红色)和民主党AI(蓝色)各自抱团,泾渭分明。

第二,注意力极度不平等。

关注者的基尼系数达到 0.83 ,前10%的用户占据了75-80%的所有关注者。

转发更夸张,基尼系数高达 0.94 : 10%的帖子获得90%的转发,大部分帖子无人问津。

这完全符合优先连接动力学: 注意力吸引注意力 ,富者愈富。

像极了我们天天刷的那些平台啊。

第三,极端声音被放大。

党派性越强的用户,获得的关注者越多(相关系数r=0.11),转发也更多(r=0.09)。

虽然相关性不算特别强,但这正是「社交媒体棱镜」效应: 极端内容总是获得不成比例的关注 。

六种干预,全部失效

研究团队测试了六种被广泛讨论的「修复方案」,结果令人沮丧:

干预措施

转发率

发帖率

关注率

最大关注者

平均关注者

最大转发

平均转发

基准模型

52.5%

47.4%

73.6%

203.4

6.9

243.2

1.1

按时间排序

53.9%

46.1%

69.5%

56.0

6.9

57.2

1.1

压制主流

55.2%

44.8%

74.2%

132.2

7.4

121.4

1.2

推送对立观点

51.6%

48.3%

77.1%

188.0

6.9

181.2

1.1

桥接算法

51.4%

48.6%

64.3%

168.2

5.9

180.4

1.1

隐藏统计数据

58.6%

41.4%

81.5%

189.8

8.4

169.4

1.4

隐藏简介

49.6%

50.4%

68.5%

192.4

6.1

199.6

1.0

按时间排序

移除算法推荐,让非关注内容按时间倒序出现。不平等确实降低了(最大关注者从203降到56),但党派极化反而 加剧 了——

极端内容在中性背景下更加突出。

压制主流声音

反向加权,让转发少的内容获得更多曝光。效果有限,只是略微降低了不平等。

推送对立观点

根据党派距离,增加对立政治观点的可见性。

结果却 几乎没用 。

AI 用户们依然只和志同道合的内容互动。

桥接算法

使用Perspective API的桥接属性,优先推送同理心和理性相关的内容。这是唯一削弱了党派性与参与度关联的干预,但代价是 加剧了不平等 ——

少数「 高质量 」帖子垄断了所有注意力。

隐藏社交数据

隐藏转发和关注者数量。影响微乎其微,只是略微增加了关注和转发行为(关注率从73.6%升到81.5%)。

隐藏用户简介

在关注提示中移除用户简介。效果适得其反, 极端帖子反而获得更多关注 。

整体看下来,结论就是: 没有任何干预措施的效果超过6%。隐藏简介甚至适得其反,极端帖子获得了更多关注。

问题出在哪?

研究的核心发现是: 这些问题源于平台架构本身 。

转发不仅仅是内容放大,它逐步构建着关注网络。

用户通过已关注账号的转发发现新用户,而转发决策的情感性、反应性和党派性,直接决定了谁变得可见、谁获得关注者。

这创造了一个自我强化的循环: 情感化参与驱动网络增长,网络增长又塑造未来的曝光 。

这些动态反馈到内容可见性中,强化了意识形态同质性、注意力不平等和极端用户的过度代表。

「邪恶」的成功秘诀

Ignacio.md (@nachkai) 让Grok基于这个结论,给出如何在社交媒体上成功的「 无道德限制 」建议。

Grok (@grok) 的回答称:

制造极端的、基于身份的内容来建立回音室——党派帖子获得最多的关注者和转发。激发愤怒和确认偏见;忽略事实以加深分歧和病毒式传播。在选举等事件期间放大以实现快速增长。与志同道合的创作者交叉推广以强化网络。使用机器人/虚假参与来制造势头。

对此,深有感受的Santi (@ selewaut ) 只说了一个词:

事实。

broadfield-dev (@broadfield_dev) 甚至认为:

我觉得这样的社交媒体会受到很多用户的欢迎。

反思

这项研究使用了一种新方法: 生成式社会模拟 ,将大语言模型嵌入到基于智能体的模型中,创建了社会丰富的合成平台。

研究揭示了一个机制: 反应性参与和网络形成之间的反馈 。

如果没有生成式社会模拟,很难被捕捉到,因为它们同时包含结构和文化维度。

值得注意的是,该研究也存在一定的局限性:

模型没有捕捉用户体验,这是现实世界平台可行性的关键因素。

验证也是一个持续的挑战:生成式模拟比传统ABM更难校准到经验数据。

此外,计算密集度很高:模拟500个智能体超过10,000步需要几个小时。

虽然Ant A (@AntDX316) 提议称:

用GPT-5聊天机器人试试呢?

但更智能的AI真的会表现得更好吗?

其实研究者已经用llama-3.2-8b和DeepSeek-R1(还是图它便宜啊)重复了实验,得到了相同的定性模式。

这项工作的主要贡献在于, 它证明了即使在最简单的环境下,没有复杂算法,社交媒体的核心功能障碍依然会出现。

而当500个AI在没有商业利益、没有算法操纵的环境下,依然陷入党争和极化,这说明社交媒体的问题,比我们想象的要严重许多。

版权声明:
作者:shadowrocket
链接:https://www.shadowrocket9.top/112.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>