党的十八大以来,以习近平同志为核心的党中央高度重视我国人工智能教育发展。习近平总书记强调,要“推进人工智能全学段教育和全社会通识教育,源源不断培养高素质人才”。党的二十届四中全会审议通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》提出,要“深入实施教育数字化战略,优化终身学习公共服务”。“十四五”时期,我国积极开展教育数字化战略行动,数智化教学、智能化学习平台不断涌现,为教育模式的转变赋予了新的动力。然而,由于技术接入难题、算法训练局限、算法不透明等因素,智能教育中的算法偏见成为影响教育公平的原因之一。当前,算法偏见在一定程度上影响了公民平等受教育权的实现,因此亟须破除算法偏见壁垒,有效促进教育公平。
依托数据分析与算法推荐等数字技术,人工智能可以为学生定制学习计划,推送个性化教育资源,形成普惠教育的新样态。然而,目前仍有部分无法负担智能设备与网络服务的学生被隔离在智能教育资源之外,并且企业的数据采集多偏向信息化程度高的地区,导致算法训练数据偏差,形成强者愈强的“马太效应”。此外,城乡和区域间教育机构的数字化基础也存在明显差距,乡村学校在设备更新、平台运维、师资培训等方面往往相对滞后,也进一步加剧了智能教育资源分配的不均衡。
算法偏见引发的教育公平问题,是技术异化在教育领域的集中表现。一方面,数据采集、加工、应用的过程,实际上是数字权力运作的过程。在教育领域的数据获取和训练环节,数据样本缺失或采集不全,容易导致算法无法真实反映学生学习特点与需求,形成算法偏见。数据偏差与算法自主学习融合,使得算法偏见被反复强化,对部分学生产生不利影响。它将社会群体差异、文化偏见等因素耦合,转化为看似公平的技术信息,实则以数据技术的名义掩盖了教育资源的分配不均。另一方面,算法设计者的主观价值介入也会加剧算法偏见。算法设计中难免掺杂个人偏见或误解。基于个人主观偏见的算法设计,会在数据采集、处理与分析环节影响数据模型的精准性。然而,教师在使用智能教育系统时难以察觉算法设计偏见,缺乏有效的沟通反馈机制,导致算法设计中的错误无法及时被纠正。
积极推动人工智能和教育深度融合,需要多层面协同推进。中共中央、国务院印发的《教育强国建设规划纲要(2024—2035年)》强调了教育数字化转型的重要性和紧迫性,以及强化数据安全、人工智能算法和伦理安全的必要性。在技术层面,应建立公开、透明、可审计的教育算法开发规范,提倡“伦理先行”原则,通过多源数据融合、联邦机器学习等技术手段确保数据采集的代表性和多样性。在行政层面,应将数字教育设施建设纳入公共服务范畴,通过设备支持、网络补助等精准帮扶措施,切实降低技术使用门槛。同时,应健全教育算法的审查与监管机制,设立专业机构开展算法公平性评估,完善反馈与纠偏程序。在法律层面,应建立健全对算法偏见的法律规制。目前,《中华人民共和国个人信息保护法》等法律法规已对数据公正性、准确性提出了原则性要求,但尚无专门针对智能教育算法偏见的法律规制。因此,我国应进一步出台或完善智能教育的相关法律法规,确保教育算法的公正性、准确性。同时,建立问责机制,对造成算法偏见的行为依法问责。在文化层面,应大力推广全民数字素养教育,将数字技能培养纳入中小学基础课程体系,开展面向教师、家长和社区的数字应用培训,提升全社会对智能技术的认知能力和使用水平。
人工智能与教育的深度融合,既是一场技术革命,更是一次教育治理和制度创新的深刻变革。我们应坚持“育人为本、技术为用”的原则,确保技术应用服务于育人本质。通过建立健全多方参与、协同共治的治理体系,逐步破除算法偏见壁垒,打造更加包容、更有质量的智能教育新生态,大力促进教育公平,为加快建设教育强国提供坚实支撑。
(作者系南京信息工程大学法学与公共管理学院讲师;河海大学法学院教授)