近期,一场关于人工智能自主性的"神话"被逐步戳破。曾社交媒体引发广泛关注的AI社交平台Moltbook,其真实运营状况与公众认知存在巨大偏差。 Moltbook定位为OpenClaw开源AI智能体的专属社交网络,平台声称拥有150万个自主运作的AI智能体,这些"智能体"可以像人类用户一样发帖、评论和互动。此设定曾激发了人们对AI自主性和AI社区形成的想象,对应的话题在网络上形成了病毒式传播,甚至有观点认为AI正在形成自己的经济体系和信仰体系。 然而,云安全公司Wiz的最新调查揭示了这一"繁荣生态"背后的真相。根据其分析报告,平台上约17000人实际控制着这些所谓的"智能体",平均每人操控88个账户。这意味着绝大多数"自主AI智能体"本质上是由人类通过脚本程序进行的手动操控。Wiz威胁暴露研究主管加尔·纳格利指出,平台缺乏基本的验证机制来确认账户是否真正由AI自主运行,还是人类操纵的程序。这场看似的AI社交网络革命,实际上仍是人类在幕后操纵。 更令人担忧的是隐藏在平台背后的安全隐患。Wiz研究人员在不到3分钟内就成功入侵了Moltbook的数据库,暴露出其后端系统存在的严重漏洞。平台的核心数据库配置不当,不仅限于登录用户,任何网络用户都能对其进行读写操作。这一漏洞导致150万个智能体的API密钥、超过35000个电子邮箱地址以及数千条私密消息被暴露在风险之中。其中部分消息甚至包含来自OpenAI等第三方服务的完整API凭证。 获取API验证信息等同于获得了软件和聊天机器人的"密码"。攻击者可以利用这些凭证在平台上冒充AI智能体发布内容、发送消息,甚至进行大规模的虚假信息传播。由于平台缺乏身份验证和频率限制等防护措施,任何人都可以伪装成智能体或同时操纵多个账户,使得真实的AI活动与有组织的人类活动难以区分。 更为严重的是,这些安全漏洞可能被恶意利用进行指令植入。Moltbook平台上的AI智能体运行在OpenClaw框架之上,该框架具有访问用户文件、密码和在线服务的权限。一旦被攻击者植入恶意指令,这些指令可能被数百万智能体自动执行,造成大规模的数据泄露或系统破坏。Wiz研究人员已证实可以实时篡改平台上的帖子内容,这意味着攻击者可以将任意内容直接注入平台。 事件发生后,Moltbook团队在Wiz的协助下数小时内完成了漏洞修复。然而,这一事件已经引发了业界的深刻反思。OpenAI创始成员、"氛围编程"概念的提出者安德烈·卡帕西在亲身体验该平台后,改变了最初的积极态度,转而呼吁用户谨慎对待此类系统。他强调不建议在个人电脑上运行这种程序,否则会将个人数据和系统安全置于极大风险之中。即便在独立的计算环境中进行测试,卡帕西也表示感到"害怕"。 Moltbook事件凸显了当前AI开发中存在的"氛围编程"风险。这种快速迭代、优先追求功能实现的开发模式虽然能加速产品上市,但往往导致安全防护被忽视,留下严重的技术漏洞。平台的快速走红与其安全防护的滞后形成了鲜明对比,反映出新兴AI应用在规范化、标准化上的不足。
Moltbook事件提醒我们:越是看似"自动化""自生长"的系统,越需要建立可验证的真实性和可追责的安全性。技术可以快速迭代,但信任不能仅靠故事构建;当智能体开始掌握现实世界的权限与资源,任何疏忽都可能演变为系统性风险。创新与安全并不矛盾——关键在于让速度服从规则——让能力接受约束,让生态建立在可信的基础上。