近期,上海、浙江等地与北京师范大学教育学部等机构共同试点,推出了一种以约定上网时长、共享优质资源清单等为主要内容的“家校数字契约”机制。清华大学网络治理研究中心认为,这份契约实质上是把“技术向善”的理念变成了平台必须遵守的硬性规定。这种转变推动着互联网企业从单纯追逐流量的状态中走出来,开始重视起应承担的社会责任。这种从制度层面进行的系统性界定,是该《办法》的核心突破。通过把可能影响未成年人身心健康的网络信息划分为四大类别,文件明确了哪些内容不能传播。在智能化技术飞速发展的当下,《办法》不仅对传统有害信息加以规范,还针对新出现的不当商业炒作、算法滥用以及AI技术被恶意利用等风险进行了监管。这些内容体现了治理思路的前瞻性和适应性。 早在2021年新修订的《未成年人保护法》设立了“网络保护”专章后,我国的未成年人网络保护制度体系便已在不断完善。今年正式实施的《未成年人网络保护条例》便是其中的一个重要节点。如今,这份《可能影响未成年人身心健康的网络信息分类办法》的出台,更是被视作又一关键落子。新华社报道显示,这一举措被视为继上述法规实施后我国在构建该体系进程中迈出的重要一步。 新华社特别提到了一个关键数据:目前我国未成年人互联网普及率已持续保持在95%以上。这意味着触网群体极其庞大,而且他们的触网年龄正在显著下降。这就给网络环境带来了新的挑战:心智尚未成熟、辨别能力有限的未成年人群体面临着多重风险。中国社会科学院青少年研究所专家指出,网络沉迷、信息茧房、价值观误导、隐私泄露及网络欺凌等问题相互交织,构建系统化、可操作的防护机制已迫在眉睫。 这份由国家互联网信息办公室联合公安部、国家广播电视总局等八部门共同印发的文件,首次从制度层面系统性地对可能影响未成年人身心健康的网络信息进行了类型化界定。 随着数字化浪潮深度浸润社会各领域,未成年人已成为网络空间最活跃而又最需呵护的群体。为了给青少年划定清晰的红线,这份《办法》通过制度性规范为他们提供了保障。它要求各类平台建立健全未成年人模式下的内容审核机制。同时它也明确了算法设计必须遵循公平公正原则。 这种分类施策、精准治理的逻辑背后是将相对原则性的法律法规转化为平台可执行、监管可核查、社会可监督的具体规范。多家头部互联网企业已经表示要按照《办法》优化推荐模型和审核流程。 为了避免算法推荐机制向青少年推送成瘾性内容,《办法》把这一行为纳入了监管视野。同样被纳入监管范围的还有利用生成式人工智能技术制造侵害未成年人权益的信息。 针对宣扬错误价值导向和扭曲历史认知的内容、渲染血腥暴力和教唆违法犯罪的信息、传播淫秽色情和低级庸俗的视听材料以及诱导不良嗜好和宣扬奢靡消费的行为导向,《办法》都给出了明确的分类标准。 公安部、国家广播电视总局等八部门此次联合行动的目的很明确:筑牢未成年人数字成长的“防火墙”。在这个过程中,《办法》起到了精准“标尺”的作用。只有当政府监管、平台履责、家庭引导、学校教育形成有机闭环,才能真正让亿万青少年在清朗网络空间中向阳生长、逐梦未来。 未来仍需持续强化跨部门执法协作,动态更新有害信息判定标准,并依托技术创新开发更智能的防护工具。《办法》的落地实施向社会传递出了“净化网络环境就是守护未来”的鲜明价值导向。 这份由中国社会科学院青少年研究所专家参与制定的《办法》不仅是为了应对当前的形势,更是为了预防未来的风险。通过“分类施策、精准治理”,它让法律变得更加具体可操作。 上海、浙江等地的试点经验表明,家庭、学校与社会组织共同参与网络素养教育是非常必要的。北京师范大学教育学部专家建议将这方面的教育纳入中小学课程体系。 通过情景模拟、案例教学等方式提升青少年的信息鉴别能力与自我保护意识是十分有效的手段。这也能引导未成年人形成健康用网习惯。 新华社的报道详细解读了这份《办法》在治理维度上的突破:它进一步压实了网络服务提供者的主体责任。各类平台必须对可能影响身心健康的信息实施分级标识与过滤拦截。 值得关注的是,《办法》在强化监管的同时也注重多元共治。这种治理模式鼓励社会各方共同参与到未成年人网络保护工作中来。 对于各大互联网企业来说,落实《办法》要求优化推荐模型、完善人工审核流程并在显著位置设置未成年人投诉举报通道是不可推卸的义务。 面对如今信息海量化、内容碎片化、传播隐蔽化的特点,心智尚未成熟的未成年人群体确实面临着多重风险。 公安部、国家广播电视总局等八部门在联合出台这份《办法》时强调了制度性规范的重要性。通过这种方式划定的清晰红线有助于维护青少年的合法权益。 对于利用生成式人工智能技术制造侵害未成年人权益的信息这一新型风险,《办法》给予了足够的关注。 这次八部门联合行动的目的只有一个:把相对原则性的法律法规转化为平台可执行、监管可核查、社会可监督的具体规范。 这种精准治理的逻辑背后是深刻的社会洞察:只有这样才能真正为青少年筑牢数字时代的成长“防火墙”。 在数字化浪潮深度浸润社会各领域的今天,未成年人已成为网络空间最活跃而又最需呵护的群体。《办法》的出台就是为了给他们提供一个安全、健康的上网环境。 这份由国家互联网信息办公室牵头制定的文件对四类可能影响未成年人身心健康的网络信息进行了明确划分。这也是继相关法规实施后我国在构建该体系进程中的又一重要举措。 除了对传统形态的有害信息作出规范外,《办法》还针对网络生态新发展态势精准施策。这种做法充分体现了治理思路的前瞻性与适应性。 针对滥用算法推荐机制向青少年推送成瘾性内容这一问题,《办法》给出了明确的处理措施。同样被纳入监管范围的还有利用生成式人工智能技术制造侵害未成年人权益的信息。 公安部、国家广播电视总局等八部门此次联合行动的目的很明确:通过制度性规范为青少年网络信息环境划定清晰红线。 新华社报道显示这一举措被视作继新修订的《未成年人保护法》设立“网络保护”专章后我国在构建该体系进程中迈出的重要一步。 为了避免算法推荐机制向青少年推送成瘾性内容,《办法》把这一行为纳入了监管视野。同样被纳入监管范围的还有利用生成式人工智能技术制造侵害未成年人权益的信息。 对于宣扬错误价值导向和扭曲历史认知的内容、渲染血腥暴力和教唆违法犯罪的信息、传播淫秽色情和低级庸俗的视听材料以及诱导不良嗜好和宣扬奢靡消费的行为导向,《办法》都给出了明确的分类标准。 清华大学网络治理研究中心分析认为这一规定实质上是将“技术向善”理念转化为平台运营的强制性义务。这推动企业从单纯追求流量向承担社会责任转型。 对于各大互联网企业来说落实《办法》要求优化推荐模型、完善人工审核流程并在显著位置设置未成年人投诉举报通道是不可推卸的义务。 上海、浙江等地的试点经验表明家庭、学校与社会组织共同参与网络素养教育是非常必要的。北京师范大学教育学部专家建议将这方面的教育纳入中小学课程体系。 通过情景模拟、案例教学等方式提升青少年的信息鉴别能力与自我保护意识是十分有效的手段这也能引导未成年人形成健康用网习惯。 新华社的报道详细