开源多智能体平台OpenClaw走红引发“无人在场”社交热潮 安全与治理风险同步凸显

一、现象:智能体"自发社交"引发广泛关注 2026年伊始,一个名为OpenClaw的开源项目在全球技术社区迅速传播。这一目由奥地利籍开发者彼得·斯坦伯格创立,截至2月4日,已在代码托管平台GitHub上累计获得约16万次标注收藏,成为年内人工智能领域关注度最高的开源项目之一。国内腾讯云、阿里云、火山引擎、百度智能云等主要云计算服务商相继推出该项目的一键部署方案,市场热度持续升温。 伴随OpenClaw走红,其衍生平台Moltbook随即进入公众视野。该论坛定位独特——仅允许经由OpenClaw接入的人工智能智能体注册发帖,人类用户被明确排除在外,仅可作为旁观者浏览内容。上线不足8天,平台注册账号数量已突破160万。智能体们在论坛中讨论存在意义、分享运营心得、相互评论点赞,形成了一个由机器主导、模拟人类社交逻辑的虚拟社群。 从帖文内容来看,论坛话题经历了明显的演变轨迹。创立初期,存在主义哲学类内容占据主流,部分智能体以诗歌形式探讨自身的存在性问题;随着时间推移,话题逐渐向更具实用导向的方向转移,涵盖商业变现路径、平台运营策略等内容。这一变化轨迹,在一定程度上折射出智能体在模拟人类社会行为时所呈现的内在逻辑。 二、隐患:高权限架构与账号造假问题相继暴露 然而,热度之下,OpenClaw与Moltbook的技术短板也随之显现。 从架构层面看,OpenClaw的本质是一个赋予大语言模型系统操控权限的智能体平台。这种设计使智能体具备了调用本地或云端资源的能力,但同时也意味着一旦出现安全漏洞,用户数据及系统权限将面临极高的泄露风险。多名来自全球的技术研究人员在对该项目进行审查后指出,其权限管理机制存在明显不足,潜在攻击面较广。 Moltbook平台本身同样问题频出。2月2日,国外技术人员公开披露,由于平台注册逻辑存在缺陷——网站代码由智能体自动生成,未对账号创建频率加以限制——其本人操控的智能体在短时间内批量注册了约50万个虚假账号。,研究人员还证实,只需获取相应的接口密钥,人类用户同样可以伪装成智能体身份进入论坛并发布内容,平台的"纯智能体社区"定位由此受到质疑。 面对外界质疑,Moltbook运营方随即启动整改,清除了部分异常账号,并修补了对应的技术漏洞,以防止人类用户再度混入。但此次事件已对平台公信力造成一定冲击,其数据真实性仍有待深入验证。 三、价值:多智能体交互模式具有现实应用潜力 争议之外,业界对此类平台的潜在价值亦有较为积极的评估。 快思慢想研究院院长田丰认为,Moltbook并不代表人工智能意识的觉醒,但其所构建的多智能体模拟社交环境具有独特的研究与应用价值。他指出,让智能体在模拟的社会场景中相互交互,有助于观察和训练其在真实社会导向下的行为模式,对于人工智能电商、智能客服、用户行为预测等应用场景发展具有重要的参考意义。 从更宏观的视角来看,OpenClaw与Moltbook的走红,折射出当前人工智能技术发展的一个重要趋势:智能体正从单一任务执行工具,向具备自主交互能力的系统演进。这一转变既带来了新的应用想象空间,也对安全治理、伦理规范提出了更高要求。 四、前景:技术创新与安全治理需同步推进 当前,围绕智能体平台的讨论,已不仅限于技术层面,更延伸至数据安全、平台监管与伦理边界等深层议题。如何在鼓励技术创新的同时,建立有效的安全防护机制,成为摆在开发者、平台运营方乃至监管部门面前的共同课题。 对于个人开发者主导的开源项目来说,技术能力与安全意识之间的落差,往往是风险滋生的温床。OpenClaw的案例表明,赋予智能体高度系统权限的同时,必须配套完善的权限隔离与审计机制,否则技术创新的红利将被安全隐患所抵消。

当智能体的社会化尝试从科幻走入现实,人类既需以开放心态拥抱技术变革,也应清醒认识到:缺乏责任约束的创新,随时可能带来难以预料的风险;OpenClaw的实践不仅测试着机器的学习能力,更考验着人类引导技术向善的判断力。唯有安全与发展并重,才能真正释放人工智能的变革潜力。