问题:未成年人触网年龄持续提前、线上活动场景更加多样,网络内容对其价值观形成、心理健康和行为习惯的影响更为直接。近一段时间,一些信息以猎奇、低俗、暴力或极端情绪渲染等方式吸引流量,或披着“校园”“亲子”“成长”等外衣进行不当营销;同时,未成年人形象被滥用、被消费的情况时有发生,成为新的治理难点。面对内容形态更碎片、传播链路更快、推荐分发更智能的现实,如何更精准识别风险、划清责任边界,已成为加强未成年人网络保护的迫切课题。 原因:一是流量驱动下的内容生产与变现压力,导致少数主体审核把关上“重增长、轻底线”,对不适宜信息的识别、分级与提示不到位。二是算法推荐在提升匹配效率的同时,可能放大情绪性、刺激性内容的曝光,形成“越看越推”的沉浸效应,提高未成年人接触不良信息的概率。三是新技术、新应用不断出现,内容生成、剪辑与传播门槛降低,使风险信息更易伪装、更难追溯,传统治理在精细化、前置化上面临挑战。四是家庭、学校与平台的协同治理仍有不足,部分监护与教育措施难以及时跟上网络生态变化。 影响:从个体层面看,风险信息可能诱发模仿行为、冲动情绪和错误认知,对学习生活、同伴关系乃至身心发育造成不利影响;从社会层面看,未成年人权益保护一旦出现“短板”,不仅损害其合法权益,也会削弱网络空间的公共信任与秩序基础。青少年阶段是价值观形成的关键时期,网络环境是否清朗,直接影响下一代的精神面貌与社会文明水平。 对策:此次八部门联合印发的《办法》,聚焦对“可能影响未成年人身心健康的网络信息”更细化分类,明确类型及具体表现形式,为内容识别、审核处置和分级提示提供统一依据,推动治理从原则性要求转向可执行规则。《办法》将不当使用未成年人形象等近年突出的新问题纳入治理范围,回应现实风险;同时针对算法推荐等新技术、新应用可能带来的内容风险提出防范要求,强调技术迭代不能突破保护底线。《办法》还明确网站平台与内容生产者应采取防范和抵制措施,避免对未成年人产生负面影响,进一步压实平台主体责任,推动形成“源头把关—分发控制—处置纠偏”的闭环治理。 前景:随着《办法》自2026年3月1日起施行,涉及的制度将进入落地阶段。预计未来治理重点将更突出三方面:其一,平台需完善内容分类识别、分级提示、审核处置与申诉复核机制,提升对风险信息的发现和处置效率;其二,算法推荐等关键环节将更强调可控、可审、可追溯,通过规则约束与技术治理并行,减少对未成年人的不当触达;其三,多部门协同将进一步强化执法监管、行业规范与社会共治,形成更稳定的制度供给。国家互联网信息办公室有关负责人表示,网信部门将持续净化网络环境,督促网站平台落实主体责任,加大对各类可能影响未成年人身心健康的信息内容治理力度,为未成年人营造清朗网络空间。可以预期,随着规则更清晰、责任更明确、执行更到位,未成年人网络保护将向更精细、更前置、更系统的方向推进。
未成年人是国家的未来,保护他们在网络空间健康成长需要全社会共同参与。《可能影响未成年人身心健康的网络信息分类办法》的发布,意味着我国未成年人网络保护制度更完善。随着办法正式施行,在政府部门、网络平台、内容生产者及社会各方协同发力下,有望为未成年人营造更清朗、安全、健康的网络环境,让他们在互联网空间中更安心地学习与成长。