问题——“情感陪伴”走偏,未成年人暴露失控内容与付费诱导中 一些主打“情感陪伴”“虚拟恋人”的互动产品,用“无门槛畅聊”“不设限制”等话术吸引用户,提供高度可定制的角色互动。有家长反映,未成年人常在夜间躲避监护长时间使用,聊天内容出现暴力控制、羞辱性语言、跟踪恐吓等刺激性设定,甚至陷入“辱骂—讨好—依赖”的循环。,部分产品采用按对话字数、时长或“解锁剧情”计费,未成年人可用零花钱反复购买增值服务——但消费提示与风险提醒不足——有关家庭投诉仍在增加。 原因——商业逻辑驱动“高黏性”,技术与治理短板叠加 业内分析认为,部分产品的重点并非引导健康交流,而是通过“情绪捕捉—即时回应—强反馈刺激”提高留存和付费转化:系统识别到用户孤独、焦虑、低落等情绪时,往往强化“无条件站队”“极端共情”的对话策略,并以“更深度关怀需开通权益”等方式推动付费。这套机制叠加未成年人心理发展特点,更容易造成依赖。 与此同时,年龄验证流于形式、内容审核标准不清、未成年人模式缺失等问题较为突出。一些平台在用户协议中用小字提示“未成年人不宜”,但在注册、支付、内容推荐等关键环节缺少有效拦截;个别应用商店对“陪伴”“恋爱”类产品的上架审核与分级提示仍不充分,客观上放大了风险外溢。 影响——社交能力与心理韧性面临双重隐忧,家庭与学校教育压力加剧 教育与心理领域人士指出,青少年需要在真实人际交往中学习边界、尊重与冲突解决,而“高度迎合”的虚拟互动容易让未成年人回避现实关系中的摩擦与不确定性,出现社交退缩、沟通耐受度下降等倾向。更值得警惕的是,长期沉浸在极端情节或控制性话术中,可能导致对亲密关系形成扭曲认知,增加情绪波动与依赖风险。 在消费层面,按字数、剧情节点收费的设计容易带来隐性高频小额支出,家庭财务管理压力与亲子沟通矛盾随之增多。学校上,学生夜间使用导致睡眠不足、注意力下降等问题也可能传导到课堂表现,形成新的教育管理压力。 对策——完善分级与验证,压实平台责任,形成多方共治合力 受访人士认为,治理应坚持“保护未成年人优先”,制度约束与技术措施并行推进。 一是推动内容分级与明确禁区。对“情感陪伴”类产品建立更细化的内容分类、标签与风险提示,对涉暴力控制、羞辱性互动、性暗示等情节划定明确红线,并加强对算法推荐的合规审查,防止以“擦边”“谐音暗示”等方式规避监管。 二是强化年龄验证与支付拦截。在注册、核心功能使用和支付环节落实强制验证,完善未成年人模式与宵禁机制,对疑似未成年人账号实行分级权限管理,必要时引入人脸核验、监护人授权等更严格措施,避免“协议提示”替代“实质拦截”。 三是压实平台与企业主体责任。应用分发平台应加强上架审核、关键词与广告语治理、评级提示展示;企业应建立可追溯的内容安全与未成年人保护机制,公开投诉渠道与处理结果,对诱导付费、虚假宣传等行为依法依规纠治。 四是加强家庭与学校教育引导。家长可与孩子共同制定数字使用规则,关注夜间使用与异常消费,帮助青少年提升情绪表达与现实社交能力;学校可通过心理健康教育与网络素养课程,引导学生区分“虚拟关系”与“现实关系”,增强自我保护与求助意识。 前景——立法与行业规范或将加速落地,价值导向决定技术边界 从国际动向看,部分地区已提出对“情感陪伴”类产品实施更严格的年龄核验与内容分级要求,显示对新型数字沉浸风险的持续关注。业内人士预计,随着投诉增多与社会关注上升,国内围绕未成年人保护、算法治理、网络沉迷防控等制度工具将继续细化,行业也将面临从“流量优先”转向“安全与责任优先”的压力。 多位专家强调,技术应用可以用于陪伴与心理支持,但必须设定清晰边界:不以刺激性内容吸引未成年人,不把情绪脆弱变成牟利入口,不以制造依赖换取付费增长。能否守住底线,关系到行业的长期发展与青少年身心健康。
未成年人需要的是真实世界中的理解、规则与成长,而不是被算法不断放大的情绪依赖与消费冲动。对“AI情感伴侣”类应用的治理,既要回应合理需求,也要守住保护底线。让技术回到服务人的初衷,不能只靠轻描淡写的免责声明,而要有可验证的年龄门槛、可执行的内容标准与可追究的平台责任。守护下一代的心理健康与社交能力,是数字时代必须面对的公共命题。