查看原文
其他

美国教育部发布新报告:《 人工智能与教学和学习的未来:见解与建议》

AI与网络法 AI与网络法 2024-01-08

编辑 | 陶园 赵嘉琪 谢思诺 郭佳仪


前 言


    新政策报告是拜登-哈里斯政府推进人工智能综合方法的持续工作的一部分,总结了人工智能在教学、学习和评估方面的机遇和风险。该报告旨在让教师、教育领导、政策制定者、研究人员以及教育技术创新者和供应商参与进来,共同解决人工智能(Al)在教育中应用时出现的紧迫政策问题。


    该报告我们以机翻为主,并进行了人工微调。由于篇幅原因,本文只展示报告中各章节的核心内容,获取完整报告,请到公众号后台留言:“人工智能和教学”(不含双引号),供各位读者参考。




1

简介


     第一部分,报告提出AI应用于教育领域需要迫切关注的政策制定问题有:


1. 利用自动化来推进学习成果的同时,需保护人类的决策和判断;

2. 审视人工智能模型中的基础数据质量,以确保在教育应用中,根据适合教学情况的准确信息,进行公平和无偏见的模式识别和决策;

3. 能够检查特定的人工智能技术,作为更大的教育技术或教育系统的一部分如何增加或破坏学生的公平;

4. 采取措施保障和促进公平,包括提供人力检查和平衡,并限制任何破坏公平的人工智能系统和工具。


2

共同制定道德、公平的政策


      第二部分,提供了制定相关政策的四个维度:


1. 强调人工智能与人类的关系;

2. 关注数据质量问题,以及在教育的人工智能系统中使用不良或不适当的数据的后果;

3. 教师、学生和教育机构中的其他人所使用的系统需要数据隐私和安全;

4. 促进透明化,具言之,人工智能模型的精确性如何?它们是否准确地抓住了最重要的东西?人工智能模型提出的建议在多大程度上符合教育目标?在教育过程中大规模地使用人工智能模型有什么更广泛的影响?


3

什么是人工智能


     第三部分详细介绍了“什么是人工智能”。报告中对人工智能的初步定义是基于关联的自动化,从以下三个视角讨论AI的构成:


1. 类似人类的推理。“类似人类”的简略表达可以说明计算机现在的能力与早期教育技术应用能力有很大不同。但是人工智能处理信息的方式与人类处理信息的方式不同,当掩盖了人和计算机之间的差异时,在教育中为人工智能制定的政策可能会错位;

2. 追求目标的算法。人工智能系统能为教师在教学活动中节省时间,但其可能存在误导。因此,人们必须参与目标设定、模式分析和决策;

3. 智能增强(Intelligence Augmentation)。智能增强(IA)是一种以人为本的合作模式,即人和人工智能(AI)一起工作,以提高认知性能,包括学习、决策和新体验。智能增强(IA)将“智能”和“决策”集中在人类身上,IA直接聚焦如何在人类的教学活动中帮助人们,而AI则倾向于将注意力集中在计算机可以做什么。


4

学习


    第四部分指出人工智能可以成为改善教育技术适应性的工具集。人工智能可以提高技术的能力,以满足学生的需要,发挥他们的长处,并增长他们的知识和技能。


     听证会上讨论了以下扩大人工智能系统中的核心模型的适应性方式:


1. 从基于缺陷到面向资产;

2. 从个人认知到包括社会和其他方面的学习;

3. 从神经典型的学习者到神经多样性的学习者;

4. 从固定任务到主动的、开放的、创造性的任务;

5. 从正确答案到额外目标。


     随着人工智能被带入学校,关于教育中的人工智能出现了两个广泛的观点:


1. 支持学生学习的人工智能;

2. 支持学习人工智能和相关技术。


     另外,报告指出需注意人工智能的进步对适应性的重要性,但也需要注意适应性受限于模型的内在质量的方式。


5

教学


     报告的第五部分明确在教学中需要坚持以教育工作者为中心的原则,人工智能应以辅助者的身份参与教学工作,以减轻教师的行政负担,支持教师更好地回归到“教学”这一本职工作中。基于此,报告认为教师作为被辅助者,应当参与设计、选择和评估人工智能工具,从而减少使用人工智能的风险。


     同时,报告还提出了教师在教学中使用人工智能的三大挑战:


1. 平衡人类和计算机决策的关系。报告认为为了更好地实现以教育工作者为中心,应当赋予教师对人工智能决策的否决权;

2. 在避免监视的同时使教学工作更容易进行。因为人工智能捕捉的数据既可能被用来为教师提供个性化的资源和建议,也可能被用来监控教师,从而导致教师对人工智能的不信任;

3. 回应学生长处的同时保护他们的隐私。人工智能在辅助教学工作过程中获得的学生信息,应当受到法律保护,以防止相关信息被滥用。


6

形成性评估


     评估是指所有由教师进行的活动,以及学生在评估自己时进行的活动,这些活动提供的信息可以作为反馈,用于修改他们所参与的教学活动。当这些证据被实际用于调整教学以满足需要时,这种评估就成为“形成性评估”。


     人工智能可以增强反馈环路,从而使形成性评估变得更好,为此应当抓住三个关键的机会领域:


1. 把重点放在衡量重要的东西上。这里的“重要”东西并不局限于对大规模总结性评估所衡量的核心学术内容的关注,还包括涉及学生成功和发展的其他广泛技能;

2. 对改善“寻求帮助和给予帮助”的强烈关注。人工智能可以缓解“学生不知自己何时需要帮助”和“教师没有意识到学生正在挣扎”的尴尬,促使教师及时对学生提供有效帮助;

3. 教师与学生应大力参与设计反馈回路。作为人工智能技术的现实体验者,教师和学生对于如何改进相关技术具有相当的话语权。


7

研究与发展


     报告在本部分明确了情境在人工智能研究中的重要性,提出要将研发重点放在解决情境问题上,并介绍了研究人员正在探讨的问题以及预期的国家研发目标。


     报告在本部分还列出了以不同方式思考研发问题的其中四类情境:


1. 关注学习者差异性的长尾效应:研究者如何利用大数据和人工智能更加关注“长尾效应”,解决数字平等和包容的问题?

2. 基于设计的研究中的合作伙伴关系:研究者如何使得参与和影响人工智能在教育领域未来发展的人员,更多地包括学生、教师和其他教育相关人士?

3. 与公共政策的联系:人工智能在教育领域的研究要如何建立在人工智能伦理、安全和监管的基础上,并为教育政策的额外进展做出贡献?

4. 重新思考教师职业的发展:研究者如何解决新的教师职业发展系统(包括在职和在职前),使其能够配合技术在教学职业中日益核心的作用?


8

建议


     报告在前述学习、教学、评估和研究四个领域的分析的基础上,总结了七条政策行动建议:


1. 将“人在回路中”作为人工智能教育使用的一个关键标准;

2. 使人工智能模式与共同的教育愿景相一致。要将优先事项、教育战略和技术采纳决策与学生的教育需求结合,将学生的教育需求至于对新型人工智能能力的激动之上;

3. 使用现代学习原则设计人工智能。人工智能在教育领域的应用必须以既定的现代学习原则和教育从业者的智慧为基础,并应利用教育评估界围绕检测偏见和提高公平性的专业知识;

4. 加强对人工智能的信任。只有信任技术,技术才能帮助我们实现教育目标;

5. 让教育工作者知情并参与到人工智能教育系统的设计中来;

6. 将人工智能的研发重点放在解决情境问题和加强信任与安全上;

7. 制定针对教育的指导方针和保障措施。



声明本文的所有内容均来自公开的资源和第三方,包含的链接可能会指向其他网站或资源,这些网站或资源并不由本公众号控制或拥有。本文不代表编辑的观点,以及编辑供职机构或其他相关机构的意见。本文仅为交流之用,如有任何意见,可以公众号后台私信提出。



关于AI与网络法团队:

我们的目标是分享人工智能和网络法领域最前沿的资讯与文章,为中文世界带来更多的知识增量。


作者简介:

陶   园,广东财经大学智慧法治研究中心研究人员

赵嘉琪,广东财经大学智慧法治研究中心研究人员

谢思诺,广东财经大学智慧法治研究中心研究人员

郭佳仪,广东财经大学智慧法治研究中心研究人员


联系方式:

cyberlaw2018@outlook.com


往期精彩推荐:

1. 日本对生成式人工智能的监管态度及市场反应

2. 抢鲜看:OpenAI CEO国会听证会书面证词中文版

3. 美国国会听证会观察之(一):AI产业与版权法如何实现衡平?

4. 美国国会听证会观察之(二):AI产业发展与版权问题,来自版权创作者的观点

5. Sam Altman:一次或将载入科技史的深度访谈(4万字,2小时视频)

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存