当前,人工智能生成内容(AIGC)正在以惊人的速度改变教育的内容生产方式。无论是教材配套的多模态资源生成,还是学生作业的自动批改与反馈,AIGC的介入显著提高了教育资源的可获得性和个性化水平。
然而,AIGC的推广应用,不仅是红利释放,还伴随着风险滋生,尤其是在中小学教育领域。一是隐私风险,以未成年人保护为核心的数据全链条风险。基础教育语文、英语等学科的听读、口语与多模态作业正在推动课堂与平台对语音、音视频、人脸与学习轨迹数据的持续采集与处理。如果监护人的监护缺位或形式化、数据最小化与用途限定未落地、存储与传输安全措施不足以及校内外主体职责边界不清,未成年人的个人隐私将面临泄露、越界使用与难以删除等高频风险。
二是认知风险,由知识错误与使用依赖构成的链式风险。在中小学的教学过程中,学生的认知尚未成熟,教师若未对生成内容进行二次审查与本土化处理,易使错误、浅层化的表达被快速内化。同时,平台与工具常以“便捷与即时答案”强化黏性,削弱“有益困难”与必要的“检索-回忆-自我解释”环节,进而诱发过度依赖,造成独立思考、批判性思维等高阶认知能力的下降。
三是价值风险,是内容取向与教育关系错位导致的伦理失衡。AIGC承载着训练语料的文化价值取向与平台的商业注意力逻辑,其默认的“中性生成”往往缺乏情境性与伦理敏感性。当生成内容与国家课程的育人目标、学校德育导向不一致或者削弱教师主导与师生情感联结时,容易造成价值判断模糊、功利主义学习取向等风险,并以教育关系被工具化的方式表现出来。
AIGC在基础教育场景的推广,要以国家立法与行业规范为宏观支撑、以学校与教师为课堂一线枢纽、以“平台-家庭-社会”为协力单元的分层协同治理框架,形成闭环治理生态。
第一,要把握治理原则与目标。治理应遵循“未成年人优先、最小必要”这两项基本原则:以课程育人为根本导向,限定AIGC在课堂与作业中的功能边界,确保任何数据处理与内容生成均服从教育目标与未成年人保护规则;在流程上体现为人师主导、机师辅助,由教师实施内容复核与情境适配,避免工具替代教育关系。
第二,要明确治理架构与职责分工。首先,国家与地方教育行政部门应肩负起底线责任,即:完善与细化AIGC教育应用的法律规范与配套规程,建立面向中小学场景的产品准入、备案和抽检制度,推动未成年人数据保护、AIGC内容标识与可追溯的强制性标准落地。其次,行业与平台应为教育类AIGC制定适配未成年人的教育技术与伦理标准,开展第三方安全评测与合规审计,确保其生成内容的准确性和公正性,避免误导学生。再次,学校与教师作为直接使用主体,应建立校级AI教学与数据治理工作组,在教学中对AIGC内容实施“二次审查-本土化处理-适龄化呈现”,并对师生数据与生成内容的使用进行全过程记录。最后,家长要履行监护义务,参与知情同意与监督举报;媒体与社会组织要提供科普、观察与外部监督渠道,形成多元共治格局。
面对AIGC在教育中的应用,我们要在开放与规制之间找到平衡点。从技术理性出发,我们可以让AIGC不断进化;从教育理性出发,我们才能让它更好地服务于人的发展。只有这样才能在技术快速迭代的周期中,持续校准AIGC的教育取向,让算法的效率与教育的“人本”在同一坐标系内对齐,最终汇聚为安全、可用、可信的教育新生态。
(作者单位:西安文理学院师范学院)