开源智能体工具“龙虾”走红,“思考者”转变为“行动者”

在AI技术发展的过程中,开源智能体工具“OpenClaw”因为拥有“龙虾”这样的昵称而迅速走红。这个工具被认为是革命性的,因为它能将自然语言转化为系统级操作,提供了很多便利。2025年可以被看作是大型语言模型爆发式增长的一年,而2026年则成为AI从“思考者”转变为“行动者”的关键节点。国家网络与信息安全信息通报中心的数据显示,全球活跃的OpenClaw互联网资产已经超过20万个,其中中国境内有大约2.3万个,并且大部分暴露在公网上。国家安全部发布了一份名为《OpenClaw安全养殖手册》的文件,给用户敲响了警钟。这份文件强调了权限问题,指出OpenClaw给用户带来便利的同时也存在潜在风险。国家安全部还分析了针对ClawHub的3016个技能插件,发现其中10.8%的插件包含恶意代码。这种生态系统的脆弱性意味着用户在使用OpenClaw时很可能无意中引入恶意程序。 对于“龙虾”这类AI代理工具而言,它们之所以能够执行任务,是因为用户赋予了它们最高系统权限。这种高权限带来了效率上的提升,但也给安全带来了挑战。一旦AI被误导或者被攻击者接管,那么主机、数据和用户身份都将面临风险。中国人民大学也迅速跟进了这次事件,发布通知要求师生禁止在办公电脑上安装未经授权的软件,并强调重要数据操作需要人工介入复核。 高校、安全企业和国家部门的联动响应构建起了一个立体的防护网。这次事件让我们看到技术普及与安全焦虑并存的现状。当AI具有自主学习和模糊指令理解能力时,“信任”变成了一个需要持续验证的动态关系。我们不能再简单地回答“是或否”,而应该问“在什么配置下它相对安全?”。 在这次事件中,国家安全部并未采取一刀切的封禁态度,而是给出了具体的技术指导。这些建议包括全面体检、最小权限原则、在沙箱或虚拟机中隔离运行等操作方式。这种务实而开放的监管智慧既防范了风险,又没有因噎废食。“养虾人”需要在便利和安全之间找到平衡点,将AI代理视为需要管理的“数字员工”而非仅供娱乐的“数字宠物”。 对于广大开发者和极客用户来说,“养龙虾”的魅力难以抗拒。它实现了从“给出方案”到“落地执行”,从“固定功能”到“多种插件”,从“普通工具”到“自我进化”,从“被动等待”到“主动服务”的跨越。这种能力代表着人机交互从图形界面向意图界面的跃迁,是通往通用人工智能(AGI)道路上的重要基石。 然而,所有生物都有进化上的弱点,“龙虾”也不例外。国家安全部手册中列出了四大风险:权限问题、生态系统脆弱性、恶意插件和数据泄露风险。这种供应链投毒方式隐蔽性高,利用了用户对AI自动化能力的信任。对于追求效率极致的用户来说,“养龙虾”的便利几乎不可抗拒。 3月17日国家安全部发布这份手册之前,“夜间下指令、晨间收成果”已经成为了一种便利体验。然而这剂清醒针刺破了狂欢的泡沫。这次事件让我们意识到当AI开始替我们做事而非仅仅对话时,我们需要承担相应的安全代价。