对比是强烈的.Jarring,甚至。 在斯坦福,学生无缝地导航人工智能驱动的学习管理系统,预测他们的需求,建议最佳的学习时间表,并提供关于任务的即时反馈。与此同时,在三千英里之外,底特律公立学校的青少年在像素屏幕上徘徊,与过时的界面斗争,破坏中间分配。 欢迎来到“人工智能本土”教育的悖论:一个乌托邦式的愿景,包裹在算法上的承诺中,但仍然紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧紧的系统性不平等,这些不平等现象几十年来一直困扰着美国的教育。 数字诞生的奇迹 “人工智能原住民是谁将被抚养做所有(或大部分)他们的工作,有能力得到AI的帮助,”解释布里亚娜莫里森,其研究在弗吉尼亚大学已经照亮了在教育技术的采用出现的缺陷线。 记住,当我们标记了一整代“数字原住民”时?这种广泛的假设 - 那些用智能手机长大的孩子自动拥有复杂的技术素养 - 被证明是毁灭性的错误。 现在我们又犯了同样的错误,但这一次,赌注率更高。 人工智能原生假设表明,明天的学生将直观地使用人工智能工具,与他们的前任采用社交媒体一样容易。但莫里森的研究揭示了一个更复杂的现实。 不平等的起点线 “没有资源的人会等待当地的需求(和资金),”莫里森观察到,她的话带有历史先例的重量。 在20世纪80年代和90年代,富裕地区收购了计算机实验室,而农村和城市学校等待了数年基本的硬件。 精英机构雇用AI识字顾问并部署复杂的学习分析平台,他们使用个性化AI导师,自动评估系统和预测模型来识别学生在落后之前的困难。 公立学校?他们仍然为可靠的互联网而战。 随着硅谷初创公司推出人工智能驱动的课程,以吸引风险资本家,撒哈拉以南非洲各地的学校缺乏电力供基本计算机供电。 教师危机 没有人谈论 “要做到这一点,你首先必须有熟练的教育人员,”莫里森强调,打击了人工智能本土教育的最关键瓶颈。 这是一个不舒服的真理:大多数教师都没有为这种过渡做好准备,不是因为他们无能或抵抗变化,而是因为系统没有投资于他们的准备。 接受培训的少数教育者往往会遇到由技术人员而不是教育专家设计的程序,他们学会了操作人工智能接口,而不了解底层的原则,偏见或局限性。 与此同时,官僚的惰性使问题变得更加复杂。课程委员会以冰冷的速度行动,讨论到政策实施时将过时的技术的优点。 一代学习者可能没有必要的AI识字技能 - 不是因为技术没有,而是因为他们的教育人员没有能力有效地教授它。 当自动化加速不平等时 米兰达·帕克(Miranda Parker)对教育技术采用的研究揭示了一种令人不安的模式:富裕的学生不断获得转型工具的早期获取,在不利群体获取之前扩大了成就差距。 人工智能驱动的教育大大增强了这一动态。 考虑人工智能辅导系统。表面上,他们承诺在规模上个性化学习 - 潜在地民主化获得高质量的教学。但现实更为复杂。高级人工智能辅导人员需要对庞大的数据集,昂贵的计算基础设施和持续的技术维护进行训练的复杂算法。 更糟糕的是,AI教育工具中的算法偏见可能会延续现有的不平等。如果培训数据不代表某些人口群体,AI系统可能会为来自这些背景的学生提供不那么有效的支持。 资源不足的学校的学生越来越多地遇到人工智能增强的课程,由资助较好的机构的同行创建。 关于Whack-a-Mole的评论 “这往往感觉像一个子,”莫里森承认,描述了学术AI政策的现状。 对比是正确的,令人震惊。 教育机构禁止ChatGPT,所以学生转向克劳德。管理员封锁了Anthropic的工具,促使迁移到困惑性。学校开发人工智能检测软件;学生学习快速工程技术来逃避检测。 根本问题不是学生的创造力,而是关于人工智能在学习中的作用的概念混淆,传统的“帮助与做”二进制在人工智能工具能够研究,概述,编辑和扫描任务时就会崩溃。 合法的AI援助和学术不诚实之间的界限究竟在哪里?似乎没有人知道。 一些机构试图采用细微的政策来区分人工智能用于脑风暴和最终构成,而其他机构则允许人工智能进行研究,但不允许写作,许多人只是举起手来禁止与人工智能有关的一切 - 这种反应既无效,而且在教育上具有反作用。 政策瘫痪反映了有关人工智能变革潜力的更深的机构不确定性,教育领导人认识到他们正在目睹一个范式的变化,但缺乏思考导航的框架。 尘埃定居问题 “在我们能够定义学术政策之前,我们将需要灰尘来安置,”莫里森建议,承认快速技术进步和有意的机构变革之间的时机不匹配。 但这里是捕获:尘埃可能永远不会定居。 人工智能的发展没有显示放缓的迹象,每个月都会带来新的功能,接口和使用案例,重新塑造教育可能性,在制定政策之前等待技术稳定可能意味着永远等待,而整个学生群体在没有明确的指导的情况下进行过这种过渡。 替代方案并不完美,但它是必要的:适应性政策框架与技术能力一起发展,教育机构需要旨在持续修订而不是静态监管的治理结构。 这需要技术人员,教育工作者,道德学家和决策者之间的前所未有的合作,这需要谦卑,因为我们无法完美地预测人工智能的教育轨迹,最重要的是,它需要致力于公平原则,以确保福利达到所有学生,而不仅仅是那些在资源丰富的机构。 超越特权机器 真正的危险不在于人工智能本身,而是在现有不公平系统中不小心地采用。 人工智能本土教育可以民主化对个性化教学、适应性评估和智能辅导的访问,这些工具最终可以实现技术长期承诺的革命性学习潜力,但只有当我们解决有关访问、培训和实施公平性的基本问题时。 否则,我们只是将不平等编码到教育的核心基础设施中。 在底特律,学生们在破碎的界面上徘徊,他们应享有与精英机构的同行相同的AI增强的学习机会。农村学校应享有与郊区相同的技术资源。 实现这些目标需要有意干预,联邦教育政策必须优先考虑公平的AI访问,教师准备计划需要全面的AI文盲课程,国际发展组织应将教育AI能力建设纳入其技术举措中。 最关键的是,我们需要诚实的对话,谈论人工智能本土教育的真正含义,而不是轻松自动化的营销幻想,而是人类和人工智能在学习环境中的协作的复杂现实。 我们可以构建在所有人口中增强人类潜力的系统,或者我们可以构建历史上最复杂的特权机器。 现在的选择,仍然是我们的。 学生们甚至没有意识到他们正在使用生成人工智能,教育政策是非常缓慢的,人工智能是快速的。 问题不在于人工智能是否会改变教育,问题在于这种转变是否会使每个人都受益,还是只有少数人才受益。