美科技巨头因青少年社交媒体成瘾被判担责 平台算法治理引发全球警示

据美国媒体报道,3月25日,美国加利福尼亚州洛杉矶县高等法院陪审团经过9天、约43小时的审议后作出判决,认定某元宇宙平台公司旗下图片社交产品及谷歌公司旗下视频平台对一名未成年用户的心理健康问题负有责任,判令两家公司共同赔偿300万美元,并建议追加300万美元惩罚性赔偿。 原告为一名20岁的加州女性,她表示,未成年时期长期使用这些平台的内容和互动功能后,逐渐出现抑郁、焦虑和自伤倾向。此案并非个例。近年来,美国多地针对青少年因使用社交媒体导致身心伤害的诉讼不断增加,公众对平台影响未成年人健康的担忧日益加剧。 该案引发关注的关键于诉讼策略的转变。长期以来,美国《通信规范法》第230条款为平台提供了法律保护,使其对第三方内容的责任相对豁免。但本案将焦点从内容本身转向产品设计和商业模式,指出无限滚动、自动播放、连续推荐和即时反馈等功能可能加剧未成年人的依赖行为,并质疑平台在“可预见风险”和“合理注意义务”上的失职。 更有一点是,公开信息显示,涉事公司内部研究曾提示其产品可能对部分青少年产生负面心理影响。在风险已知且可预见的情况下,若平台未采取有效干预或限制措施,仅以“技术中立”或“用户自担”为由推卸责任将难以成立。 从法律角度看,此次判决被视为美国司法对“产品设计导致成瘾与伤害”问题的新态度:当平台机制显著增加使用时长和互动频率,并对未成年人造成可量化的心理损害时,责任认定标准可能被重新界定。 对行业而言,尽管赔偿金额对企业影响有限,但其示范效应可能促使更多类似案件采用相同思路,从而推动平台在合规、风控和产品设计上加大投入。对社会治理而言,判决提醒公众:平台不仅是信息通道,其算法推荐和交互设计具有明确的行为引导能力,若缺乏约束,可能将流量逻辑转化为公共健康和青少年保护问题。 在平台治理上,全球政策正从“事后纠偏”转向“前端预防”。具体措施包括: 1. 完善未成年人保护制度,落实实名验证、分龄分级、使用限制、夜间模式和强提醒等可核查的产品标准; 2. 推动算法治理规范化,对高黏性功能进行风险评估,建立青少年“高风险功能清单”和退出机制; 3. 强化企业责任,将未成年人健康纳入产品硬性指标,结合内部审查、第三方评估和监管抽查形成治理体系; 4. 加强家庭、学校和社会协作,提升数字素养和心理健康支持能力,优化干预机制。 我国近年来已未成年人网络保护上推出青少年模式、使用管理、内容分级等措施,并在个人信息保护和算法治理等领域完善规则。下一步需聚焦执行细节,通过分龄治理和严格审计,推动平台从“被动整改”转向“主动预防”。 随着跨平台内容分发加速,青少年接触信息的边界日益模糊,监管和司法对平台责任的讨论将更深入。未来,“成瘾性设计”“风险告知义务”和“未成年人保护标准”等规则将更严格,平台竞争也将从流量效率转向安全、健康和责任能力的综合比拼。这个趋势或将为全球互联网行业构建更注重公共利益和青少年福祉的治理框架。

青少年身心健康不应为流量经济买单,也不该成为技术竞赛的牺牲品。司法和监管将产品机制风险纳入责任框架,发出明确信号:面对未成年人,平台必须优先考虑保护而非增长。唯有通过更完善的规则、有效的技术治理和广泛的社会共治,才能确保数字空间更安全、更健康地发展。