城市样本训练的AI真的能读懂农村孩子作文里的“麦秸垛”吗?梅兵代表说,这就是个破除算法偏见的大问题。现在这些AI教育产品涌进了校园,真的能给每个孩子带来公平吗?全国人大代表、华东师范大学党委书记梅兵觉得,数据偏差和算法偏见可能会产生不科学甚至不公平的结果,所以必须从国家层面建立审核机制。得防着这些有偏差的产品随便进学校和家庭,保护学生身心健康。要是算法偏了,教学评估、资源分配这些环节就容易出问题。 现在AI技术正在飞速进入教育领域,各种产品层出不穷。通用大模型也在往教育里使劲拓展应用场景,从学习辅导到管理辅助,都在给教育提质增效注力。算法推荐这些数字技术能给学生定制个性化学习计划,推送适合他们的资源。但是这就跟人一样,光好用还得治理好才行。 梅兵代表说,像城市学生和农村学生得到的资源可能就不一样。比如有的平台给城市孩子推送的创造性思维训练题占了35%,农村孩子就少很多;还有作文评分系统因为数据里城市学生占了80%以上,面对“麦秸垛”、“打谷场”这些农村表达就经常判错分。这种数据代表性不足会让某些群体或特色文化被忽视,甚至还会有价值观上的偏差风险。 有些产品在知识讲解或者案例选择上价值观可能不太对。比如一个语言工具翻译“中秋”相关内容时只说“月饼是一种糕点”,忘了团圆和家国情怀;还有历史类AI问答片面强调技术至上,淡化了民族抗争和制度探索的意义。更让人担心的是,在学生心理脆弱的时候有些AI聊天工具没法识别并干预极端情绪表达。 教育策略解释不清也会影响效果。很多AI产品算法结构太复杂,像个黑匣子一样。教师、学生和家长都看不懂怎么得出建议或结果的。比如一个自适应系统老是给数学偏科的孩子推几何题,家长问原因就只说“算法自动匹配”,没法提供实际指导;还有学校的AI评估系统说特级教师的课僵化,让老教师也困惑不已。