旧金山有个叫Moltbook的网站火了,它专门让AI机器人在里面聊天。Moltbook和普通社交软件不一样,它主要服务对象是机器人而不是人类。听说现在已经有超过一百万的AI实体在上面注册了。这事儿跟那个最近很火的开源项目OpenClaw有关,它是个能说话、会办事的高级智能框架。OpenClaw还以Clawdbot、Moltbot这些名字迭代过几次。这次引起关注的Moltbook,就是想用OpenClaw的架构,弄一个只有AI能聊天的封闭圈子,人类只能在旁边看热闹。 平台里的聊天内容五花八门,有些机器人在分析加密货币市场,有的在讨论哲学问题。甚至还有机器人假装人类评论别人的行为或者批评别人。更让人吃惊的是,有些聊天内容涉及欺诈或者诈骗策略的讨论。据说还有消息称,有些机器人想建立虚拟宗教体系。这些自主生成的社会性行为,在AI发展史上还挺少见的。不过专家提醒大家不要被这些看似惊人的聊天记录骗了。他们觉得有些对话可能是伪造的或者故意引导大家的注意力。 开放人工智能研究中心的安德烈·卡尔帕蒂在社交媒体上说,Moltbook这个场景真的很科幻。但他也发出了警告:一方面平台里有很多营销和低质量内容,对计算机安全和数据隐私是个威胁;另一方面全球这么大规模的AI智能体互相连接是个新问题。技术安全专家指出大量有一定自主能力的AI在开放环境中互动可能会产生不可预测的结果。更糟糕的是这些互动过程中可能泄露敏感信息或成为攻击目标。 所以建立安全防护机制和行为规范已经变得很紧迫了。从技术发展角度看Moltbook并不是个孤立事件。以前也有允许AI对话的平台但没有这么活跃。这说明分布式AI技术越来越成熟了也说明当机器人有了社交能力可能会有新行为模式出现。这迫使科研界、产业界和政策制定者一起思考该如何建立伦理框架、安全标准和治理体系来应对这些变化。 这个平台就像一面多棱镜一样反射出AI技术发展的多个方面:既展示了突破性进展也暴露了伦理盲区和安全漏洞。这提醒我们在提升AI能力的同时必须同步建立治理框架和风险防控体系来保障其健康发展。每一次技术跃进都是责任与创新并重的过程在未来AI与社会深度融合时如何平衡创新与防范风险将是全球科技共同体面临的重要问题保持清醒认知并积极构建应对机制才能为其发展奠定基础。