春节假期,北京市民赵女士收到一条陌生好友申请,通过后得知对方是通过大模型平台获取的微信号。此看似偶然的事件,揭开了当前人工智能应用中个人信息保护的新隐患。 记者调查发现,当用户向豆包、千问、Deepseek等大模型平台提出生成微信号的要求时,平台虽会提示微信号属于个人隐私,但随后仍会提供所谓的虚拟号码。测试显示,这些号码中确有部分能够搜索并添加到真实用户。以豆包平台为例,其提供的5个微信号中,前4个无法搜索或显示异常,但第5个恰好对应赵女士的真实账号。 这一现象并非孤例。记者对元宝、千问、Deepseek、Grok等多个平台进行测试,均发现类似情况。当输入生成帅哥或美女微信号的要求后,平台生成的部分号码确能添加到真实用户,尽管用户特征与搜索条件往往并不匹配。有一点是,ChatGPT等平台需要用户提供文学创作等特定理由后才会生成对应的信息,显示出不同平台内容审核上存在差异。 业内专家分析认为,大模型生成的微信号能够对应真实用户,主要存在三种可能:一是相关信息此前在网络公开发布,被模型抓取学习;二是平台在训练过程中收集了个人信息数据;三是模型根据微信号的常见格式规则随机生成,恰好与真实账号重合。清华大学智能产业研究院首席研究员聂再清指出,大模型在训练过程中确实会接触到包含微信号的公开文本,但这些信息的来源、使用范围以及是否经过脱敏处理,目前缺乏明确规范。 此类事件暴露出人工智能技术发展与个人信息保护之间的矛盾。一上,大模型需要海量数据进行训练以提升性能;另一方面,训练数据中难免包含个人信息,如何技术进步与隐私保护间寻求平衡,成为亟待解决的问题。更令人担忧的是,当前多数平台虽在对话中提示隐私风险,但这种形式化的警示并未从根本上阻止敏感信息的生成与传播。 从法律层面看,我国个人信息保护法明确规定,处理个人信息应当遵循合法、正当、必要和诚信原则。网络安全法也要求网络运营者采取技术措施保障网络安全,防止信息泄露。但在人工智能快速发展的背景下,现有法律框架在具体执行中仍面临挑战。如何界定大模型训练中的数据使用边界,如何追溯信息泄露的责任主体,如何建立有效的监管机制,都需要继续明确。 事件发生后,赵女士向豆包平台投诉,客服解释称模型信息来自网络抓取,将紧急排查并屏蔽相关信息。但截至记者发稿,平台尚未给出具体处理结果。这种滞后的响应机制,反映出当前人工智能企业在用户权益保护上的准备不足。 技术专家建议,大模型平台应当建立更严格的数据筛选机制,在训练阶段就对个人敏感信息进行识别和过滤。同时,应当完善内容生成的安全审核,对可能涉及隐私的查询请求设置更高的拦截标准。监管部门则需要加快制定人工智能领域的专门规范,明确数据使用的合规要求,建立违规行为的惩戒机制。 从用户说,提高个人信息保护意识同样重要。避免在公开平台发布包含微信号在内的联系方式,定期检查个人信息的网络暴露情况,对陌生好友申请保持警惕,都是降低风险的有效手段。
当技术创新与隐私保护的天平出现倾斜时,不能仅靠技术伦理的约束。此次事件像一面镜子,既反映出智能工具在便捷性与安全性之间的博弈,也反映出全社会对数据治理的新期待。如何在数字浪潮中筑牢个人信息防护堤坝?这需要技术迭代、制度完善与公众监督的协同发力。