规范中小学人工智能教育,美国有何新招?|教育观察
生成式人工智能进校园不等于学生自动获益,必须明确使用边界、场景及违规后果
学生正在使用人工智能聊天机器软件。
人工智能技术迅速发展,正以前所未有的速度渗入教育教学各个环节,重塑人才培养的方式。然而,这一进程也伴随着复杂的挑战和风险,尤其是对正处于培养独立思考能力关键期的中小学生而言,需要回答好“用不用”“怎么用”“哪里用”等问题。
美国作为人工智能教育领域的先行者,其前沿政策实践能为中国政策制定提供哪些有价值的参考?近日,北京大学中国教育财政科学研究所温雨熹和田志磊二人总结分析了美国25个州的人工智能教育指导文件,并在其发表的《何以尝百草——美国中小学人工智能教育政策及其对中国的启示》(以下简称“研究”)中提炼出三条中小学人工智能教育政策启示。
启示一:建立快速迭代的“活文档”
今年5月,中国教育部基础教育教学指导委员会发布《中小学人工智能通识教育指南(2025年版)》(下称《教育指南》)和《中小学生成式人工智能使用指南(2025年版)》(下称《使用指南》),科学规范推进人工智能全学段教育。
相应的,截至2025年5月,美国也已有25个州发布州级人工智能教育指导文件。研究指出,美国州级人工智能教育指导文件最早可追溯至2023年9月,最新为2025年3月。这些文件平均长度23页,发布主体以州教育部为主,其余分别由州内大学、非政府组织及教育技术委员会主导。值得注意的是,所有文件均明确声明其非强制性,属建议性“工具箱”资源。
相较于中国当前发布的《教育指南》和《使用指南》,温雨熹和田志磊二人指出,美国州一级的人工智能教育指导文件,呈现出“动态更新,小步快跑”的特点,这些指导文件大多被各州称为“活文档”。
以北卡罗来纳州为例,该州自2024年1月发布首版指导意见后,13个月内迭代更新13次,第11版起更是将静态PDF转为在线协作文档,以便快速迭代更新;州教育部网站也不再发布pdf版本,而改为提供链接,点击链接即可直接看到最新版本。
温雨熹和田志磊二人在研究中指出,人工智能及人工智能教育现在仍在“神农尝百草”阶段,因此政策的“保质期”或许只有数月甚至数周。把使用指南改造为一个活文档,迅速响应,快速迭代,才可以最大化使用指南的价值。
启示二:低龄学生慎用生成式人工智能
人工智能的使用,尤其对处于关键生长发育期的学生,究竟会产生何种深远影响?低龄儿童接触人工智能,是否会对其自我认知能力、信息处理模式的构建带来潜在风险?这些都是中美两国政策制定者共同的关切。
研究者认为,由于时间尚短,没有人能对此给出确切答案。但是,在最早拥抱教育数字化的北欧诸国,已在反思儿童过早接触数字世界对专注力、人际交往等方面的不良影响。
研究指出,在25个州中,有11个州探讨了年龄限制问题,深入思考是否应完全禁止低龄学生接触生成式人工智能;3个州特别指出了针对性最强的《儿童线上隐私保护法》(COPPA),该法明确规定,任何面向13岁以下儿童提供在线服务或访问权限的机构,必须事先获得其监护人的明确同意、提供清晰的数据保护政策,并严格禁止收集儿童的个人信息。
为避免低龄学生因认知不足导致技术滥用或过度依赖,《使用指南》提出了“分学段差异化应用”。小学阶段学生在教师、家长帮助下适切使用开放式内容生成功能,防止不合理使用影响学生知识建构与思维发展,教师在课内有效开展人机协同教学;初中阶段可适度探索生成内容的逻辑性分析,指导学生交叉验证生成内容的合理性;高中阶段可结合技术原理开展探究性学习,引导学生自主评估生成内容的社会影响。
启示三:建立场景分级框架
研究者认为,将生成式人工智能引入校园,并不等同于学生能自动从中获益。当前教育领域的一大新挑战正是学生滥用生成式人工智能工具。是否允许使用、在哪些具体环节可以使用、以及违规使用将面临何种后果与惩戒,应当告知学生。
在规范使用场景的策略上,美国11个州采纳了分级方法。这种分级主要体现为两种思路:一种是按学段分级,另一种是按使用权限分级。
按学段分级的核心在于根据不同学段的教学目标进行适配。例如,北卡罗来纳州将13岁以下学生的学习内容定位为“Learn about AI”(学用AI),侧重于了解AI的基本原理、认识其潜在风险(如欺骗性、产生幻觉、深度伪造技术等)以及接触科普知识;而对于13岁及以上的学生,则升级为“Learn about AI + Learn with AI”(学用AI+用AI学),允许他们在教师的监督和指导下开始尝试使用生成式人工智能工具辅助学习过程。
教育部于2024年底发布《关于加强中小学人工智能教育的通知》(简称《通知》)也体现了按学段分级的思路。《通知》指出,小学低年级段侧重感知和体验人工智能技术,小学高年级段和初中阶段侧重理解和应用人工智能技术,高中阶段侧重项目创作和前沿应用。
在美国采用分级策略的11个州中,有10个州选择了按使用权限分级的方式。
其中最具创新性的是佐治亚州提出的“红绿灯”模型。该模型要求教师在布置学习任务时,必须明确告知学生该任务对应的“AI红绿灯”颜色:亮“红灯”意味着完全禁止使用AI,一旦发现即按作弊处理;“绿灯”则代表允许自由使用AI辅助,但必须清晰标注出由AI生成的部分内容;“黄灯”则处于中间地带,允许有限度地使用AI,例如仅限于查找资料、提供修改建议或协助规划大纲等特定功能。尽管各州在“黄灯”权限的具体划分层级上存在差异(有的仅设一级,有的细分两到三级),但“红灯”完全禁止和“绿灯”开放使用这两档基础设置则是普遍共识。
另外,在权限分级的情况下,学生在部分场景被允许自由使用生成式人工智能,但是如果使用了生成式人工智能输出的内容,则需要按照学术规范对其进行引用。在25个州中,有12个州提及了引用生成式人工智能输出的指导意见。
为防范学生因过度依赖生成式人工智能而弱化独立思考能力,《使用指南》则明确禁止学生直接复制人工智能生成内容作为作业或考试答案,并限制在创造性任务中滥用人工智能,禁止使用人工智能参加考试与测验。
对于生成式人工智能产品的内容把关,美国各州也提出了要求。
在25个州中,有13个州明确提及“人在回路”或类似概念。研究指出,人在回路(human in the loop)指的是生成式人工智能所输出的内容不应直接复制粘贴使用,需要一个专家在这个路径中把关、审查。在日常教学中,这就代表如果教师准备在课堂中使用生成式人工智能产品,那该教师必须承担审查的责任。如果教师没有审查内容,或无能力审查内容,那么根据人在回路的原则,该课堂就不应该部署生成式人工智能应用。
《使用指南》则强调教师在使用生成式人工智能产品时的引导职责。教育部基础教育教指委负责人在《使用指南》答记者问上表示,《使用指南》要求教师在教学实践中积极开展批判性思维训练,通过组织学生分析人工智能生成文本的逻辑缺陷、价值倾向及文化偏差,培养学生对技术输出内容的质疑精神与甄别能力,切实提升信息处理的自主性。