本文是LLM系列文章,针对《A review on the use of large language models as virtual tutors》的翻译。
摘要
Transformer 架构有助于管理自然语言处理的长期依赖关系,这是该领域的最新变化之一。这些架构是创新、尖端的大型语言模型 (llm) 的基础,这些模型在多个领域和工业领域引起了巨大的轰动,其中教育领域尤为突出。因此,这些基于生成式人工智能的解决方案将技术的变化和教育方法和内容以及网络基础设施的演变引导到高质量的学习。鉴于 LLMS 的普及,本综述旨在全面概述那些专门为生成和评估教育材料而设计的解决方案,这些解决方案让学生和教师参与他们的设计或实验计划。据我们所知,这是对 LLMS 教育申请(例如,学生评估)的第一次审查。正如预期的那样,这些系统最常见的作用是作为自动生成问题的虚拟导师。此外,最受欢迎的模型是 gpt-3 和 bert。然而,由于新的生成模型不断推出,预计新作品将很快发布。
1 引言
2 方法
3 分析和讨论
4 结论
不可否认,LLM 代表了本世纪许多领域和工业部门的大趋势。在学习的特殊情况下,这些基于 AI 的生成式解决方案引起了相当大的轰动。因此,它们支持动手学习,并普遍用于当今课堂。与以前主要侧重于修改文本输入的 AI 解决方案和传统方法相比,高级 LLMS 可以即时生成类似人类的话语,从而增强教学实践并提供个性化的评估和辅导。
鉴于 llms 的普及,这项工作是第一个全面概述其在教育领域的应用。特别注意那些让学生或教师参与设计或实验计划的人。在数据收集期间获得的 342 条记录中,有 29 件作品符合资格标准,通过了筛选阶段

订阅专栏 解锁全文
1775

被折叠的 条评论
为什么被折叠?



