意大利竞争与市场管理局(AGCM)于1月5日发布公告,决定停止对DeepSeek的调查。
这一决定基于该公司提交的整改措施,旨在解决其大模型可能生成虚假或误导性信息的问题。
问题背景 2025年6月,AGCM对DeepSeek展开调查,原因是该公司未向用户警示其模型可能产生“幻觉”——即生成不准确或虚构内容的风险。
监管机构指出,即使用户使用意大利语与模型交互,相关安全提示仅以英语显示,未能满足本地化要求。
整改措施 为回应监管要求,DeepSeek于2025年9月两次提交整改方案。
具体措施包括: 1. 提供意大利语版《使用条款》,并根据用户IP地址自动适配语言; 2. 在注册页面显著位置设置《使用条款》超链接,确保用户易于访问; 3. 在提问框下方永久标注“回答由AI生成”的提示; 4. 对涉及医疗、法律、金融等敏感领域的信息,在内容末尾增设专门警示。
技术优化 除用户提示外,DeepSeek还提出了技术层面的改进方案,通过优化数据训练流程降低模型生成虚假信息的风险。
AGCM在公告中认可了这些措施,认为其有助于提升用户对生成内容的审慎使用。
行业影响 此次事件反映了全球监管机构对生成式技术潜在影响的关注。
随着相关技术广泛应用,如何平衡创新与用户保护成为关键议题。
DeepSeek的整改措施或为行业提供参考,推动更透明的用户告知机制。
未来展望 分析人士指出,此次监管介入可能促使更多企业加强合规意识,尤其是在多语言支持和内容真实性提示方面。
未来,技术公司与监管机构的协作或将成为常态,以确保技术发展兼顾安全与责任。
DeepSeek整改案例的完成,反映出全球AI治理正逐步从被动应对向主动规范转变。
面对算法幻觉等新兴技术风险,企业、监管部门和用户需要形成共识:透明度、可解释性和用户赋权是AI产业健康发展的基石。
随着更多地区完善相关法规,AI企业的合规成本上升,但这种"良币驱逐劣币"的过程,最终将推动整个产业走向更加规范、更加可信的未来。