香港私隐专员公署:盯着代理式ai给个人资料带来的风险

把OpenClaw这类代理式AI比作能下蛋的鸡,要是养鸡的过程不小心把门关错了,母鸡可就把资料全露出来了。最近大家常聊的一款开源AI框架叫“龙虾”,就是OpenClaw。3月16日,香港私隐专员公署在官网上发文说,正盯着这个代理式AI给个人资料带来的风险,劝大家用前先做好防范。 这个代理式AI跟我们平时用的AI聊天机器人不太一样,它能干的事儿更多。它是一个能在本地设备或者服务器上跑的高权限AI工具,能读写本地文件、调用系统资源、操作外部服务,甚至还能代替用户自动处理邮件订餐厅这些事,全程不用人盯着。 正因为权限高又能自主行动,它带来的隐私风险比一般聊天机器人大多了。私隐专员公署说了三个主要的隐患:第一是权限太高容易把资料漏光。这类AI默认能读取用户电脑上的文件、邮件、账户凭证甚至浏览器里的内容。要是权限设得不严,它可能接触到大量用户的隐私资料,给黑客留下可乘之机。有时候AI还会因为听不懂指令把重要资料删了,比如把用户所有的邮件记录都删掉。 第二是系统有漏洞容易被黑客盯上。既然它能接触多个系统和资料源,万一设计或者安全控制上出了茬子,对个人资料和整体安全都是很大的威胁。 第三是插件里可能藏着木马。如果允许用户装各种Plugins和Skills,要是里面有没经过严格审核的恶意代码,黑客就能趁机接管账户甚至控制整个电脑。 为了避开这些坑,公署建议大家在用代理式AI的时候要注意几点:给它最小权限、用官方最新版、确保系统安全、谨慎装插件。 《每日经济新闻》记者还发现,这次发预警可不是头一回。3月13日,香港特区政府负责AI政策的数字政策办公室就提醒过各部门,别在连内网的电脑上装这个东西。当天国家网络与信息安全信息通报中心也发了风险预警,说互联网上的OpenClaw资产很多都有大漏洞。3月15日中国互联网金融协会也在微博上提醒金融消费者别在办业务的终端上随便装OpenClaw。要是非装不可,建议别给金融服务类系统操作权限,多盯着漏洞修复情况。 除了这些机构发的警示外,还有一些高校也在行动。像河南医药健康技师学院、山西应用科技学院、甘肃钢铁职业技术学院等好几所学校都发公告严禁在校园网里用这个软件了。