教育行业是受到 ChatGPT 和生成式 AI 快速采用威胁的第一批专业领域之一,这已不再是新闻了——全国各地的大学和学院召开紧急会议,讨论如何应对学生使用 AI 作弊的风险。不断发展的人工智能故事还有另一面。宾夕法尼亚大学沃顿商学院、纽约大学和普林斯顿大学教授最近的研究表明,教育工作者也应该同样担心自己的工作。

在对“最容易接触”ChatGPT 等大型语言模型最新进展的职业的分析中,排名前 10 的职业中有 8 个是教学职位。
这项新研究的合著者、纽约大学教授罗伯特·西曼斯 (Robert Seamans) 表示:“当我们进行分析时,我惊讶地发现,教育职业在很多情况下都接近顶尖。”
英语语言文学、外语和历史专业的专上教师在教育工作者中名列前茅。
尽管近年来越来越多的证据表明高技能职业(例如律师)可能会受到人工智能的影响,但通常预计受技术影响最大的工作是常规工作或死记硬背的工作,而高技能劳动力被认为更重要。受保护。
但这项研究发现情况恰恰相反。
“高技能工作可能比其他工作受到的影响更大,”宾夕法尼亚大学沃顿商学院的合著者兼教授马纳夫·拉吉(Manav Raj)说。
但受影响的工作——或者正如该研究正式描述的那样,“最容易受到人工智能影响”的工作——并不一定意味着人类职位将被取代。
Raj 表示:“ChatGPT 可用于帮助教授生成教学大纲或推荐与特定主题相关的读物。”他目前并不担心被取代的担忧。它还可以设计教育幻灯片和课堂练习。对于非常密集的主题,“ChatGPT 甚至可以帮助教育工作者用更简单的语言翻译其中一些课程或要点,”他说。
教育技术公司Udemy一直在销售使用 ChatGPT 制作的语言学习模块,以帮助语言教师设计课程。
多邻国流行的在线语言学习公司正在依靠人工智能技术为其 Duolingo 英语测试 (DET) 提供支持,这是一种按需在线提供的英语水平考试。该测试利用 ChatGPT 生成用于阅读理解的文本段落,并利用人工智能来支持人类监考人员发现可疑的考试行为。
它还与教师合作生成课程内容,并加快向平台添加高级材料的过程和规模。Duolingo 人工智能主管克林顿·比克内尔 (Klinton Bicknell) 表示:“由于世界上并不是每个人都能平等地获得优秀教师和良好的学习条件,人工智能为我们提供了向每个需要的人提供优质教育的最佳机会。”
大学教授在想什么、在做什么
一些教授对 ChatGPT 及其功能持谨慎态度。
阿默斯特学院 (Amherst College) 的英语教授克里斯蒂娜·里尔登 (Kristina Reardon) 表示,在使用 ChatGPT 作为教授并考虑 ChatGPT 在写作中的合著者角色时,需要划清界限。
“无论 Chat GPT 有多好,我相信我们可以从学习预写、起草、修改、编辑等过程中获益良多。写作是一个过程,是一个迭代的过程,可以帮助我们思考想法,“ 她说。
许多大学已向教授发送了使用 ChatGPT 的指南,以及如何在保持学术诚信的同时增强学生的体验。
普林斯顿大学建议教授们在教学大纲中明确使用 ChatGPT;使用它来加强小组讨论,并将其用作将学生自己的论文草稿与 ChatGPT 版本进行比较的工具。
康奈尔大学心理学教授莫滕·克里斯蒂安森表示,在康奈尔大学,无论大学的一般指导方针如何,每位教师都可以自由地做出最适合自己教学领域的决定。
许多教授开始在课堂上使用 ChatGPT。
康奈尔大学法语和比较文学教授 Laurent Dubreuil 目前正在让他的学生评估学术自由和审查制度的界限,因为 ChatGPT 的最新版本“现在带有关于社会和政治上可接受的言论的设定参数 -以及什么不该说。”
Christiansen 表示 ChatGPT 可以帮助学生创造公平的竞争环境。“它可以作为个人导师来帮助他们,学生也有机会评估 ChatGPT 的成果,”他说。
事实上,该技术的缺陷是一个以新方式教学和学习的机会,通过促使学生向 ChatGPT 提出与课程内容相关的具体问题并批评给予他们的答案来磨练学生的批判性分析技能。当前许多生成式人工智能语言模型都会产生人工智能专家所认为的“幻觉”。
“ChatGPT 会编造事实,看起来它对自己所说的内容非常有信心,包括添加实际上并不存在的参考资料,”克里斯蒂安森说。
沃顿商学院创业学教授 Ethan Mollick 已成为教育界生成式 AI 实验的布道者,他希望他的学生在他们制作的每份文档中使用 ChatGPT,无论是营销材料、图形、博客文章还是新的工作应用程序。
“我认为我们必须意识到这是我们生活的一部分,我们必须弄清楚如何利用它,”他说。
莫利克并不认为曝光意味着最终的替代。
“我们必须认识到,我们需要改变处理事情的方式并接受这项新技术,”他说。“我们已经适应了其他技术变革,我认为我们也会适应这一变革。”
版权声明: 本文由【B族智能】原创,转载请保留链接: https://www.bzu.cn/news/show/63.html,部分文章内容来源网络,如有侵权请联系我们删除处理。谢谢!!!