近日,国家网信办、国家新闻出版署、教育部等八部门发布《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),自今年3月1日起施行。《办法》首次将影响未成年人身心健康的网络信息细化为四大类,让网络监管和治理“清晰可判”,为未成年人筑牢网络安全屏障。
《办法》立足未成年人身心发展特点,从四大维度界定风险信息,包括:
可能引发或诱导未成年人模仿不良行为的信息,涵盖性暗示、网络暴力、诱导非理性追星打赏等;
可能对未成年人价值观造成负面影响的内容,涵盖炫富拜金、畸形审美、“读书无用论”等错误观念;
不当使用未成年人形象的信息,涵盖利用未成年人摆拍牟利、通过恶搞未成年人等方式博取关注;
不当披露未成年人个人信息的行为,涵盖未经监护人同意不得展示不满十四周岁未成年人的学习、生活等场景。
除了明确风险边界,《办法》更对网络平台和内容生产者提出刚性约束,从信息展示、算法推荐到提示标识等方面,构建全链条防护体系,以精细化治理守护未成年人网络空间。
信息展示。《办法》明确要求,网络平台不得在首页首屏、热搜、弹窗、榜单等醒目位置,呈现可能影响未成年人身心健康的信息。
算法推荐。针对算法推荐、生成式人工智能等新技术,《办法》强调平台须建立健全安全管理制度,严禁向未成年人推送风险信息;专门以未成年人为服务对象的网络产品和服务,更是全面禁止制作、传播相关不良信息。
提示机制。内容生产者需在信息展示前,通过文字提示、通用符号等形式在显著位置标注;平台则要提供专属标识功能,引导用户规范提示。
不同信息载体的提示位置也有明确标准,文本在起始、末尾或中间适当位置标注,视频在起始画面设置标识,确保提示醒目有效。
据专家介绍,《办法》的出台,标志着我国未成年人网络保护进入精细化、系统化治理阶段。
中国社会科学院法学研究所研究员支振锋表示,平台在进行内容审核的时候有了一个可操作的负面清单,也必须根据清单建立相应的审核规则和技术识别的模型。针对现在经常出现的未成年人开盒、变脸,网红儿童诱导打赏、饭圈乱象这些实践中的突出问题,把网信部门开展的“清朗行动”的经验制度化,也为监管部门提供了更加清晰的处罚处置的依据。