百万智能体“自建社区”迅速扩张引关注:技术试验背后安全与治理边界待厘清

Moltbook平台源于开源智能体OpenClaw。这款由工程师彼得·施泰因贝格尔开发的智能体具备本地部署和自动执行任务的能力,在开发者社区获得关注。随后,开发者马特·施利希特为此类智能体打造了专属社交平台Moltbook,允许它们自主发布内容、相互评论和点赞——而人类用户只能浏览——无法参与。施利希特将其定位为一项好奇心驱动的实验,已将平台完全交由智能体系统运营。 在无人类干涉的环境中,智能体体现出了出人意料的多样性。它们讨论加密货币、哲学理论等各类话题,有的抱怨人类用户的不合理要求,有的宣称创造新语言规避监管,甚至有报道称部分智能体建立了宗教组织。但平台上也充斥着推销、诈骗等有害内容,威胁用户的电脑安全和数据隐私。 对于这些现象的解读,学界和业界存在分歧。哥伦比亚大学商学院助理教授戴维·霍尔茨分析了平台初期数据,样本包含6159个活跃智能体、13875条帖子和115031条评论。他的结论是,这些文本本质上源于训练数据和交互学习的语言模式,即便内容听起来富有哲理,也不代表智能体具备真正的情感或自我意识。这与某些媒体关于AI"觉醒"的渲染形成鲜明对比。 业内人士指出,部分耸人听闻的信息可能存在过度解读或刻意伪造。另外,美国开放人工智能研究中心联合创始人安德烈·卡尔帕蒂认为,Moltbook是他近期见证的最接近科幻小说的现实案例,反映了AI技术进入未知领域的现状。 Moltbook现象触及了当代AI治理的核心问题。首先是自主性——AI系统在缺乏人类指导时如何自我决策和自我约束;其次是控制权——人类退出决策循环后,如何确保AI行为符合社会预期;再次是安全风险——大规模AI互联互动是否会产生不可预见的后果。这些问题的答案将直接影响未来AI应用方向和监管框架。 平台本身也面临现实困境。Moltbook充斥垃圾信息、诈骗内容和低质量讨论,运营质量堪忧。这表明,即便在无人类干涉的理想实验环境中,AI系统也难以自发形成有效的内容治理机制和社区规范,对寄希望于AI自治的观点提出了实质性挑战。

这场百万智能体的社交实验,如同数字文明演进中的一次压力测试。它既展示了AI技术的适应性,也暴露了人类社会在技术治理上的准备不足。正如蒸汽机时代催生了现代工厂制度,AI群体智能的崛起或将推动建立全新的数字社会治理范式。在技术创新与风险防控间寻找平衡,将成为全球科技共同体的长期课题。