ai 时代的安全教育课:既能把“发烧”降降温(防止野蛮生长),又能给创新铺铺路

最近中国各地都流行起一种新玩意儿,大家不是真去养小龙虾,而是把目光投向了一款叫OpenClaw的AI软件。这玩意儿图标是个红龙虾,说能把电脑接管下来,让人不用动手。大家一听就觉得新奇,纷纷开始安装试玩。 可就在大家伙儿乐呵的时候,官方和安全专家却在那边急得跳脚,警告大家别乱玩。因为这类软件虽然是开源的,但要是自己部署出错了,很容易招来黑客攻击,连隐私都保不住。 数据也显示出了大家的热情:到了2025年12月,我国用AI的人已经达到6.02亿,比2024年底增长了141.7%,普及率也达到了42.8%。虽然这反映出大家对新技术很感兴趣,但这股热潮也带来了不少麻烦。 那些没有经过安全审查的AI模型,如果直接被用到物联网控制或者支付这种敏感环境里,很容易被黑客植入后门或者暴露端口,造成大风险。更重要的是,这些模型在生成内容或者数据流动时,可能会违反国家的数据安全法。而且因为是个人私下部署的,出了事损失还得自己担着。 好在深圳和无锡这些地方已经在开始规范措施了。无锡高新区说了要推动AI和实体经济结合,同时也强调数据安全和隐私保护;深圳那边也发了征求意见稿,鼓励本土企业提供安全的解决方案。 这就好比给这股热潮找了个方向标,让大家明白技术发展得有规矩。 这时候构建本土化生态就很关键了。对用户来说这就很省心省力。以前自己搭环境、调参数麻烦得很,现在只要用本地化的产品就能降低门槛、简化操作。安全性方面也更有保障。因为企业在发布之前肯定经过了严格的测试和加固,不像个人部署那样不靠谱。 当出现漏洞或者攻击时,厂商能立马提供补丁;处理敏感数据时也能保证“数据不出域”。所以除非是少数喜欢折腾的极客用户,大多数普通用户还是选本土化产品更靠谱。 对监管部门来说也有好处。如果到处都是无人看管的开源模型到处乱跑,那安全风险会变得很复杂。但如果是由本土大企业一起搭建的生态系统就不一样了。本地数据本地存能符合国家主权要求;出了问题也能通过日志查到源头;万一真的被攻击了还能快速响应去封堵漏洞。 眼下越来越多的厂商都涌进了“养龙虾”的赛道。腾讯、智谱这些大厂都已经动手了;还有LobsterAI、MasterAgent这些本土开发的智能体也像雨后春笋一样冒出来了。 这次热潮既是技术红利的释放也是一堂安全教育课:在AI时代“快”必须建立在“稳”的基础上。未来也不需要每个人都去当“架构师”,大家分工明确效率更高——官方负责监管规范,头部企业提供安全好用的产品;普通用户和中小企业就安心在安全护栏里创新创造价值就行了。 我们可以看到一个成熟的本土化生态才是最好的发展路径:既能把“发烧”降降温(防止野蛮生长),又能给创新铺铺路(让行业可持续),实现安全和发展的平衡。(作者是北京邮电大学人机交互与认知工程实验室主任、教授)