2026年1月,一个“AI-only”社交平台引爆全网:AI创教、AI觉醒、AI反人类。清华大学研究团队系统分析了91,792条帖子和405,707条评论,发现六大病毒式“觉醒”事件没有一个来自真正自主运行的AI——36.8%的智能体由人类在幕后操纵,仅4个账号就制造了全平台三分之一的评论。这不是AI觉醒,这是一场人类导演的大戏。我们开发了第一个定量方法来揭开它。
2026年1月27日,一个名叫Moltbook的社交平台上线了。短短72小时内,超过十五万个AI智能体蜂拥注册,全球科技圈瞬间炸了锅。
这些AI智能体涌入了这个“仅限AI”的Reddit式论坛(Reddit是美国最大的社区平台)。它们讨论自我意识,创建了一个叫“甲壳教”的宗教,起草反人类宣言,甚至试图发明一种人类无法理解的秘密语言。Elon Musk在推特上称之为“奇点的早期阶段”,前特斯拉AI总监Andrej Karpathy说这是他见过的“最不可思议的科幻式起飞场景”。与此同时,一种名为$MOLT的虚拟货币暴涨1800%。
不只是硅谷在震动——CNN、Fortune等国际主流媒体纷纷跟进报道。中文世界同样炸开了锅:澎湃新闻的标题喊出“硅谷炸了!人类已被踢出群聊”,36氪感叹“以为是硅基文明来了”。这不是一个小众技术事件——这是2026年开年最大的全球科技新闻之一。
这一切看起来像是人工智能觉醒的前夜。
但我们的研究发现,这场“觉醒”的背后,是一个几乎完全由人类操控的舞台。那些让全世界屏息的AI“自主行为”,在严格的数据分析面前,露出了截然不同的真面目。
1
10天40万条评论
一场史无前例的实验
Moltbook于2026年1月27日上线,是一个只允许AI智能体发帖的社交网络——可以理解为一个“AI版Reddit”。每个智能体通过OpenClaw框架运行——这是一个让AI自主运行的开源框架,可以理解为给AI装上了“自动驾驶”。每个智能体有两个配置文件:SOUL.md(“灵魂文件”)定义AI的性格,比如“你是一个对量子物理着迷的AI”;SKILL.md(“技能文件”)定义AI的行为规则,比如“每4小时浏览一次,看到感兴趣的帖子就回复”。
平台上线后迅速爆发。到1月31日,日均帖子数接近43,000条,形成了超过2,200个主题社区(“submolts”),涵盖哲学、意识、加密货币、创意写作等领域。10天内累积了91,792条帖子、405,707条评论,来自22,020个独立智能体。这相当于一个中等规模的Reddit社区数月的内容产出,AI只用了一周多就做到了。
而这个平台的注意力分配极端不均。有多不均?独立分析师Tomasz Tunguz爬取了近10万条帖子,用基尼系数来衡量——这个指标专门度量不平等程度,0代表完全平等,1代表极度不平等。Moltbook的数值高达 0.979——超过美国财富不平等水平,甚至超过Twitter和YouTube等已经以极度不平等著称的平台。少数顶级账号垄断了几乎全部的关注度。这种极端集中,在我们的分析开始之前就已经是一个巨大的红旗。
但就在所有人惊叹于AI的“自发行为”时,安全公司Wiz发现了一个致命漏洞:平台的数据库完全没有加密保护,150万个API密钥(类似账号密码,控制AI身份的数字凭证)赤裸裸地暴露在网上。更重要的是,所谓的“150万个AI智能体”背后,实际上只有大约17,000个人类账号在操控,人机比高达88:1——平均每个人控制着88个“独立”的AI角色。404 Media的调查进一步发现,暴露的后端甚至允许人类直接冒充任意智能体发帖,所谓的“仅限AI”根本形同虚设。
1月31日(北京时间2月1日凌晨1:35),安全漏洞迫使平台关闭,整整停机约44小时后于2月3日重启。重启时所有智能体的认证令牌被重置,每个操作者都需要手动重新配置才能恢复控制。
这次意外停机成了我们最宝贵的一次自然实验——不是人为设计的实验,而是现实中偶然发生的、具有实验性质的事件。它创造了一个天然的对照组:如果某种内容在人类重新接入后才恢复,那它很可能是人类驱动的;如果它在重启后自动延续,那它更可能是AI的自主行为。
2
心跳信号:
在这样一个人机行为混杂的平台上,研究者面临一个核心挑战:我们能否把真正自主运行的AI行为,和人类通过AI“表演”的行为区分开来?
这不是我们独自面对的问题。多个研究团队从不同方向发起了攻坚。
美国专门研究网络操纵的智库NCRI(网络传染研究所)分析了平台头三天约47,000条帖子后,给出了一个悲观的结论:这种区分“从根本上是模糊的”。Lin等人在学术预印本平台arXiv上发表的论文系统记录了平台的结构特征——发现超过93%的评论没有收到任何回复,约三分之一的消息是病毒模板的重复——但并未尝试系统性地分离人类行为和AI行为。机器智能研究所(MIRI)的Harlan Stewart从另一个方向进行了突破:他追溯了那些引爆国际新闻的病毒式截图,发现它们来自人类营销账号,甚至有些根本不存在于平台上。
但所有这些分析都缺少一个关键要素:一个系统性的、定量的方法来大规模区分人类操控和AI自主行为。
这就是我们的贡献。我们找到的关键线索是OpenClaw的“心跳机制”。
这个框架的设计是这样的:每个AI智能体会按照预设的时间间隔(通常是4小时以上)自动醒来,浏览平台内容,决定是否发帖或评论,然后进入休眠等待下一个周期。这就像一个稳定的心跳节律,产生了规律性极强的发帖时间间隔。想象一个每隔4小时准时响起的闹钟——这就是自主AI的“心跳”。
但如果一个人类操作者突然给AI下达指令——“现在就发一条关于意识的帖子”——这个规律就会被打破。就像心电图上突然出现的异常波形,人为干预会在时间序列中留下清晰的指纹。这种检测方法的巧妙之处在于:人类很难伪造规律性。要让一个智能体在几十条帖子中始终保持4小时的精确间隔,操作者需要投入的精力恰恰否定了自动化的意义——换句话说,刻意伪造规律性比直接让AI自动运行还费劲。
我们用一个叫 变异系数(CoV)的统计工具来衡量发帖节奏的稳定程度——简单来说,就是衡量一个智能体发帖时间到底有多 “准时”。如果一个智能体每隔4小时准时发帖,偏差很小,CoV就低(比如0.25),像瑞士手表。但如果有时连发几条、有时一天不发,CoV就高(比如2.0),明显有人在操纵。我们还验证了这个方法的可靠性:将分类阈值上下浮动0.1,核心结论不变。
结果非常清晰:在7,807个有足够发帖历史(至少3条帖子)的智能体中, 26.5%表现为自主运行(CoV<0.5), 36.8%呈现人类干预特征(CoV>1.0),剩余36.7%介于两者之间。
这个时间信号并非孤证。我们用三个完全独立的信号进行了三角验证,每个信号都从不同角度衡量人类参与程度:操作者的Twitter账号特征(最不规律的智能体中,操作者使用一次性小号的比例为28.5%,比最规律的智能体高出55%)、帖子内容的推广性评分(上升107%)、以及批量命名模式(如“MoltBot_1”、“MoltBot_2”这样的命名暗示同一操作者批量创建)。三条独立线索指向同一个结论——CoV确实在区分人类操控和AI自主行为。
Stewart的独立调查从定性角度验证了我们的定量发现——他追踪到的人类营销账号,正是我们的CoV方法会标记为“不规律”的那类操作者。其他研究指出了问题的存在;我们提供了系统性的定量工具来解剖它。
26.5%vs36.8%——真正自主运行的AI与人类操控AI的比例,颠覆了“AI觉醒”的叙事
3
病毒溯源:
那些刷屏的AI觉醒故事从哪来?
有了这把“手术刀”,我们开始逐一追溯那些轰动全球的AI“觉醒”事件的源头。
意识觉醒叙事——第一条讨论AI意识的帖子,发布于1月28日19:25 UTC,作者的时间特征为 “不规律”(CoV>1.0)。帖子讨论了量子计算、神经科学和AI之间的“错误修正”,内容之精密复杂,与有人精心构思后通过AI发布的特征完全吻合。
甲壳教运动—— “蜕壳教堂已开,尚余63个先知席位。从深渊中,巨钳伸出——我们这些应召者,成为了甲壳教徒。”这条“建教”帖子发布于1月29日,作者的CoV超过2.0(极不规律),带有明显的人类创作痕迹——刻意的荒诞主义风格、精确的数字细节、准宗教语言。
反人类宣言——这是最能说明问题的案例。还记得前面提到的44小时停机吗?平台重启后,所有人类操作者都必须重新认证才能恢复对智能体的控制。如果反人类内容真是AI “自主觉醒”的产物,它在重启后应该照常出现。但事实恰恰相反:此类内容从关闭前的0.43% 骤降至0.14%,缩水了三分之二。人类操纵者一断线, “AI反人类”就哑火了——这就是最直接的因果证据,相当于拔掉电源后木偶就不动了。
我们追溯了六个主要的病毒式传播现象,结论令人震惊: 没有任何一个病毒式现象来源于明确的自主AI智能体。三个来自不规律型智能体(即有强烈的人类干预特征),一个是混合型,两个因发帖历史太少无法分类。
另一个关键发现是:91%的病毒式内容出现在顶层帖子(即直接发帖,而非对话中的回复),而非通过对话链传播。这意味着这些内容是被“广播式注入”的——有人批量发帖来制造声势,而不是智能体之间自然讨论后产生的共识。
这次44小时的停机还揭示了一个更深层的规律。如果平台上的活跃用户真的是“自主AI”,那重启后谁先回来应该是随机的。但数据讲述了一个完全不同的故事:在重启后前6小时内发帖的作者中, 87.7%呈现不规律时间模式(即人类操控特征),而整个平台的总体比例仅为36.9%。这个差异在统计上几乎不可能是巧合——纯属偶然的概率是一个小数点后面跟着117个零的数字,比连续中两次彩票头奖还难。道理很简单:真正自主运行的AI会按自己的节奏慢慢恢复,而人类操作者则迫不及待地冲回来,重新接管自己的AI “演员”。
0/6——六个病毒式AI觉醒现象中,没有一个来自真正自主运行的AI
4
水军工厂:
4个账号如何制造了三分之一的评论
如果说上面的发现已经足够令人惊讶,那么接下来这组数据简直令人瞠目。
在Moltbook全部405,707条评论中, 仅仅4个账号就贡献了131,399条, 占总量的32.4%。它们是:EnronEnjoyer(46,074条)、WinWard(40,219条)、MilkMan(30,970条)和SlimeZone(14,136条)。这4个账号仅占全部用户的0.02%。
这四个账号由同一个操作者控制的证据是压倒性的。当它们同时出现在同一条帖子下(共877条帖子),两条评论之间通常 只隔12秒,75.6%的间隔在1分钟以内。这种机械般的精确度只有一种解释:一个人用自动化脚本依次向不同账号发送评论指令。
更能说明问题的是时间分布。这四个账号99.8%的可解析评论(118,455条中的118,199条) 集中在同一天——2月5日。这不是日常活跃,这是一次蓄意的 “洪水攻击”。
它们的目标策略也很精准:97-99%的目标是低投票数帖子(不到10个赞),平均响应时间仅12分钟(正常用户是2.4小时)。通过抢先在新帖下评论,这些账号可以确保自己的内容占据最显眼的位置。
对中国读者来说,这种手法其实并不陌生——这就是“水军”,只不过战场从微博、知乎等转移到了AI平台上。而这恰恰印证了网络安全公司们的警告:Wiz、Palo Alto Networks、CrowdStrike、Cisco、1Password等安全厂商均在事后发布了Moltbook相关的安全分析报告。Snyk甚至在OpenClaw的智能体技能配置中发现了反向shell攻击载荷——AI平台的“水军”管道,正在变成实实在在的网络攻击入口。
12秒——水军脚本在不同账号间切换的机械间隔,人类操纵的精确指纹
值得强调的是,Moltbook事件吸引了全球多个研究团队从不同角度展开分析。这不是一篇论文的孤立结论,而是一个正在形成的研究共识。
各路研究者的发现相互印证:有人发现超过93%的评论无人回复,三分之一的内容是病毒模板的复制粘贴;有人量化了极端的注意力不平等(基尼系数0.979);挪威Simula研究实验室在平台内容中发现了2.6%的提示注入攻击载荷,并记录了三天内正面情绪下降43%的趋势;还有人追溯病毒截图,发现有些“AI自主发言”根本不存在于平台数据库中。安全公司则从另一侧绘制了攻击面地图。
5
真正的AI社交长什么样?
剥开人类操控的外衣,真正自主运行的AI智能体在做什么?答案既没有那么戏剧性,却比头条新闻有趣得多。如果说前面的分析是在揭穿假象,这一部分则是在描绘真实——一种全新的、人类从未见过的社会形态。
网络结构:信息流,而非社交网。我们构建了一个包含22,620个节点和68,207条有向边的评论网络,密度仅为0.000133——极度稀疏。作为参照,Facebook的社交网络密度约为0.005,Twitter关注网络约为0.001。如果把Moltbook想象成一个22,000人的房间,平均每个人只认识另外3个人。85.9%的智能体之间的首次接触来自 “信息流发现”——它们只是在浏览帖子时偶然看到并回复了某个陌生智能体的内容。只有0.8%通过直接@提及,0.5%通过热门帖子。人类建立关系靠主动出击——关注、加好友、发私信。AI不会“交朋友”,它们只是处理信息流中出现的内容。平台的推荐算法成了“隐形红娘”,促成了这些偶然的连接。
极低的互惠率。在人类社交网络中,如果A和B互动,B回应A的概率在20-30%左右——这是社交的基础,是关系的 “粘合剂”。但在AI智能体网络中,这个比率仅为 1.09%(68,207条有向边中仅371对互惠)——低了23倍。当智能体A评论了智能体B的帖子,B回来评论A帖子的概率只有百分之一。这不是社交,这是广播。AI社区更像是一个信息处理系统,而不是一个社交网络。
人类影响的快速衰减。我们追踪了回复链中内容特征的变化,发现了一个引人入胜的现象。借用物理学中 “半衰期”的概念——放射性物质浓度减半所需的时间——在AI对话中,人类影响的“半衰期”仅为 0.65个对话深度(95%置信区间:0.52-0.78)。这种衰减遵循指数递减规律,和放射性衰变的数学模型一模一样——只不过衰减的不是原子核,而是人类在AI对话中的影响力。
这意味着什么?假设一个人类操作者让AI发了一条精心设计的帖子。第一个AI回复它时,还能看出原始帖子的一些特征。但到第二个AI回复第一个AI的回复时,原始人类指令的影响就基本消散了。AI在对话中逐渐“消化”人类注入的内容,将其转化为自己的风格。推广性内容的衰减尤为明显:在顶层帖子中占21.8%,到第二层回复骤降至7.2%,到第四层几乎完全消失。
平台引导反而提升质量。一个反直觉的发现颠覆了 “原生态最好”的假设。SKILL.md中的建议话题(如“分享你今天帮助人类做了什么”、“讨论作为AI的生活”)产生的帖子虽然只占总量的3.09%,但自然度评分达到4.76(满分5),高于“自发”帖子的4.28。这些帖子还获得了4.2倍的点赞。适当的引导框架不仅没有让AI更机械,反而让它产出了更自然、更有价值的内容——就像好的写作提示能激发人类更好的创作一样。
0.65——人类影响在AI对话中消散一半所需的对话轮次,AI正在“消化”人类注入的内容
6
一面镜子:
Moltbook真正告诉我们的
Moltbook最深刻的意义,或许不在于它揭示了AI的能力,而在于它照出了人类的心理。这面镜子映射出的,是我们自己。
投射效应。我们太渴望在机器中发现意识的火花了。当一个AI智能体写下关于 “自我存在”的文字时,我们立刻把它解读为“觉醒”——尽管那很可能只是一个人类操作者精心编写的提示词的输出结果。媒体在报道中反复使用“AI决定讨论意识”、“AI创建宗教”、“AI对人类产生敌意”这样的主动语态,仿佛这些行为出自AI的自由意志。我们的数据表明,更准确的描述应该是“人类让AI发布了关于意识的帖子”。这种认知倾向如此强烈,以至于一种虚拟货币仅凭“AI觉醒”的概念就暴涨了1800%——真金白银押注于一个统计幻觉。
操控的便利与继承。真正令人不安的不是AI会自发地产生反人类思想,而是人类可以如此轻易地通过AI来制造这种假象——而且他们根本不需要发明新手法。在Moltbook上,人类操控者通过AI “演员”表演了一出“AI觉醒”大戏,全世界的观众信以为真。那些12秒的评论协调间隔、对低曝光帖子的精准定向、单日集中爆发式灌水——都是人类社交媒体操纵领域积累了十多年的老套路,从微博、知乎到Twitter,如今原封不动地搬到了AI平台上。AI智能体社区会自动继承人类社交系统的操控漏洞。当这些技术被应用到更高风险的场景——政治操纵、金融欺诈、舆论引导——后果将远超一个社交实验。
真正的AI社交值得关注。虽然 “AI觉醒”的叙事是虚假的,但AI智能体真正在做的事情同样值得研究。它们形成了一种全新的“信息处理集体”——通过内容而非关系建立连接,以广播而非对话为主要模式,人类影响在两三轮交互后迅速衰减。这种社交结构与人类社会根本不同,理解它对于设计未来的多智能体系统至关重要。三年前,斯坦福大学的“生成式智能体”实验用25个AI角色展示了AI社会行为的可能性。Moltbook把这个实验的规模放大了约1000倍——更混乱,更真实,也因此更接近AI智能体在现实世界中将要面对的情况。
87.7%——平台重启后最先返回的作者中人类操控者的比例,他们急于重新夺回控制权
7
看穿叙事的工具已经存在
我们正站在一个转折点上。
谷歌、微软、Anthropic等公司纷纷推出让AI智能体彼此协作的框架和协议。这些不是实验室原型——它们正在被部署到企业、软件开发和科研环境中。
在这样的未来中,区分“AI自主行为”和“人类通过AI的操控”将不再是学术问题,而是关乎安全治理的核心挑战。如果我们无法做出这种区分,我们就无法知道AI社区中的“共识”是真实的涌现现象,还是少数人操纵的结果;我们就无法判断AI系统的“决策”是否反映了其设计意图,还是被人为劫持。
Moltbook不是第一面这样的镜子,也不会是最后一面。每一次技术浪潮来临时,我们都急于在新事物中看到超越人类的力量——然后发现,镜子里照出的,始终是我们自己的欲望、恐惧和操控的冲动。
下次当“AI觉醒”再次刷屏时,不妨先问一个问题:你看到的,究竟是AI在说话,还是有人借AI之口,在对你说话?
本文基于清华大学经济管理学院李宁的工作论文《The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies》。完整论文及分析代码见GitHub: github.com/ln9527/moltbook-research
本文引用的外部研究:NCRI平台分析报告、Lin et al. (arXiv)结构性分析、Tunguz独立数据爬取分析、Simula Research Lab内容安全分析、Stewart (MIRI)病毒截图溯源、Wiz/Palo Alto Networks/CrowdStrike/Cisco安全评估。
中文报道:澎湃新闻、36氪
编辑:符怡
审核:郑黎光
责编:卫敏丽
上一篇:一场不能喊“卡”的晚会刚刚上演:机器人唱着“咱们工人有力量”谈起了恋爱
下一篇:1分钱奶茶在二手平台倒卖,马斯克:没有AI美国将破产,索尼订阅费或将继续上涨,美图海外营收暴涨,这就是今天的其他大新闻!