派趣吧

卢宇 等|生成式人工智能的教诲使用与展看——以ChatGPT系统为例

电视时间:2周前阅读:1

【刊载信息】卢宇, 余京蕾, 陈鹏鹤, 李沐云. (2023). 生成式人工智能的教诲使用与展看——以ChatGPT系统为例. 中国远程教诲 (04).

【摘要】生成式人工智能(Generative Artificial Intelligence)旨在利用人工智能技术自动化生成文本、图像、视频、音频等多模态数据,受到教诲领域的广泛关注。其中,ChatGPT系统因其良好的自然语言理解和生成能力,体现出较高的多领域使用潜力。本研究以ChatGPT作为主要对象,基于其四项核心能力,即启发性内容生成能力、对话情境理解能力、序列任务执行能力和程序语言解析能力,探讨在教师教学、学习过程、教诲评判、学业辅导四个方面的潜在教诲使用。在此基础上,在真实系统中进行了习题生成、自动解题、辅助批阅等教诲使用的初步验证。最后,本文进一步探讨了以ChatGPT为代表的生成式人工智能在教诲使用中所面临的局限和对教诲的启迪。

【要害词】生成式人工智能;ChatGPT;大语言模型;人工智能教诲使用

一、

引言

2017年7月由国务院印发的《新一代人工智能发展规划》中提出了我国对人工智能发展的战术规划,明确指出要挠住人工智能发展的重大历史机遇(国务院, 2017)。2022年11月,生成式人工智能系统ChatGPT正式发布(OpenAI, 2022),迅速成为教诲领域关注和讨论的焦点。生成式人工智能(Generative Artificial Intelligence)指通过人工智能相关技术,自动化生成文本、图像、视频、音频等多类型内容。近年来,随着人工智能技术、算力水平与可获取数据量的提升,生成式人工智能技术依托语言、图像以及多模态大模型(Foundation Model),可以实现较好的内容生成效果(Bommasani et al., 2021),并在传媒、零售、法律、医疗、金融等领域逐步开始提供专业化与个性化内容生成服务。

针对生成式人工智能技术,国内外产业界与学术界都开展了较多的前期研发与投进。国内以百度为代表的AI企业致力于研发基于大模型的生成式人工智能系统,并实现快速落地。例如,ERNIE 3.0(Zhang et al., 2019)是基于知识增强的大语言模型,通过增强学习通识性知识,可进行具备知识可靠性的高质量文本创作;ERNIE-ViLG 2.0(Ho et al., 2020)作为多模态大模型,可通过输进文字描述,生成具备较好清楚度、可控性与发明性的图像,并基于扩散模型增强图文要害信息获取以及进行降噪过程优化。国外以OpenAI公司为典型代表,在跨模态内容生成、自然语言内容生成等领域,都做出了引领性奉献。例如,DALL·E 2(OpenAI, 2022)跨模态生成系统可依据用户文字描述,生成、扩展、修改和多样性迁移生成原创高清图片;GPT系列的人工智能系统可以生成文本类内容,逐步逼近实现类人的语言理解与交互能力,并于近期推出了基于大语言模型的多轮对话系统ChatGPT。

ChatGPT系统一经问世,便引发了产业界和学术界的广泛关注,用户规模迅速超过一亿,并在互联网领域迅速实现落地使用。微软“必应”搜索已开始借助ChatGPT,为用户提供结构化整合搜索结果、意见及谈天等功能,显著提升了搜索效率、改良了用户体验。在智能性方面,斯坦福学者依据心智理论测试发现GPT-3.5(ChatGPT的同源模型)可解决100%的意外迁移任务以及85%的意外内容任务,相当于9岁儿童的水平(Kosinski, 2023);在专业考试方面,ChatGPT及其同源产品可基本通过谷歌L3级软件工程师水平测试、美国执业医师资格考试、美国司法考试中的证据和侵权行为测试、美国宾夕法尼亚大学沃顿商学院MBA运营治理课程考试等。

展开全文

ChatGPT在文本类内容生成、上下文情境理解等方面所表现出的卓著性能,对教诲领域也产生了浩大影响和深刻的启迪意义,并可能促进和催化从教诲理念到教诲实践的深层次变革。长期受技术条件制约的启发式教学与个性化反馈等潜在智能教诲使用也开始成为可能。本研究将以ChatGPT为主要研究对象,基于其技术维度的核心能力分析其在教诲中的潜在使用,在对部分使用进行初步验证的基础上,探讨其局限性及对教诲的启迪。

二、

ChatGPT概述

(一)历史演变

人工智能领域的研究目的是通过模拟人类智能,使机器能够像人类一样探求和行动。科学家并从模拟人类语言交互的角度提出了闻名的“图灵测试”。人工智能发展初期,主要关注知识形式化表征与符号化推理,但一直难以处理复杂多变且具有较强歧义性的人类自然语言。进进21世纪,研究人员开始尝试构建基于统计推断和机器学习技术的自然语言处理模型。虽然这些模型可以提升典型自然语言处理任务的性能,但是仍然难以深进分析和正确生成人类的自然语言。随着深度学习技术的发展,对人类自然语言进行高维分布式表征和隐含特征提取逐渐成为可能,人工智能技术在多项自然语言处理任务上的表现也有了极大提升。2017年谷歌公司提出Transformer(Vaswani et al., 2017)模型,促使自然语言处理模型的参数量得到大幅扩展。在此基础上,研究人员提出了预练习语言模型的概念,即基于大规模语料库并利用自监督学习技术练习语言模型,以提升机器对自然语言的理解能力,并由此开启了自然语言处理领域的大模型时代。

2018年6月,美国OpenAI公司提出了基于Transformer的预练习语言模型(Generative Pre-trained Transformer)GPT-1。GPT-1(Radford et al., 2018)基于自回回理念,摘用12个Transformer解码器,构建从左向右单向推测的语言模型,参数量达1.17亿。GPT-1的构建首先基于大型语料库进行无监督的预练习,然后通过有监督的微调技术为下游自然语言处理任务提供解决方案。同年10月,谷歌推出了基于自编码理念的BERT(Bidirectional Encoder Representations from Transformers)模型,基于多层的Transformer编码器,摘用从左右双向进行填空学习的方式开展练习(Devlin et al., 2019)。2019年2月,OpenAI发布了GPT-2模型(Radford et al., 2019),其核心理念与GPT-1相似,但摘用了更多的Transformer解码器和更大的语料库进行练习,参数量达15亿。GPT-2在多项自然语言处理任务上均有较为出色的表现。同年谷歌进一步提出了T5(Raffel et al., 2019)模型,并在机器翻译与知识问答等任务上表现出更好的性能。2020年5月,OpenAI推出GPT-3(Brown et al., 2020),其参数量相较GPT-2提升了两个数量级,达到1,750亿。参数量的提升使GPT-3在对话生成、文本摘要、机器翻译等任务上展现出了卓著的性能。2022年初,OpenAI在GPT-3的基础上推出InstructGPT(Ouyang et al., 2022),并于同年11月推出其同源模型ChatGPT,在文本生成以及自然语言交互等任务上实现了较为惊人的进取。

(二)相关技术

为实现高质量的生成内容,以ChatGPT为代表的GPT系列系统,主要涉及了五项要害技术和架构。

1. Transformer模型

该模型是ChatGPT等系统的基本组成单元,本质上是一种基于自注重力机制的深度神经网络,主要包含编码器和解码器两部分。编码器主要包括一个自注重力子层和一个全连接前馈神经网络子层:前者计算输进序列中不同位置之间的依靠关系结构并进行特征表达,后者则对新生成的特征表达进行处理,生成最终的表征向量。解码器的基本结构与编码器类似,但针对编码器的输出增加了新的多头注重力层,并加进了掩码设定,以防止解码过程中后继位置信息泄漏。Transformer模型能够高效捕捉序列数据中不同位置之间的依靠关系,并处理任意长度的自然语言序列数据。

2. 基于Transformer的基本架构

GPT系列系统基于Transformer模型构成其基本系统架构,由于ChatGPT系统的具体技术结构信息目前并没有被完全披露,我们以其前身GPT-3为例进行介绍。如图1所示,GPT-3主要是由96层的Transformer 解码器组成,其中每层的解码器包含掩码多头注重力机制子层和全连接前馈神经网络子层,单词的嵌进维度和上下文窗口长度均进行了扩展,且摘用稀疏注重力模式提升运行效率。模型练习的过程基于自回回思想,即给定上文内容推测下文单词或给定下文内容推测上文单词。此外,针对不同自然语言处理任务,GPT-3转换不同格式的文本语料进行模型练习。例如,针对机器翻译任务,练习数据会转换成类似“翻译成英文:他来自中国。He is from China.”格式的文本。这些技术与思想直接扶助GPT系列系统逐步具备了优异的文本生成能力。

图1 GPT-3模型的基本架构

3. 基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)技术

该技术是ChatGPT内容生成能力提升的要害(Christinao et al., 2017)。RLHF技术包含三个步骤:第一步是监督式微调,其核心理念是利用符合人类预期的少量标注数据对预练习模型参数进行调整,初步优化文本生成模型;第二步是构建奖励模型,核心目的是通过对监督式微调生成的多个结果进行人工排序标记,练习奖励函数模型,用于强化学习模型输出结果的自动化评判;第三步是利用近端策略优化(Proximal Policy Optimization, PPO)算法,结合奖励模型对文本生成模型的结果进行自动评估,并摘用强化学习对文本生成模型进行优化,使其最终具备生成符合人类预期的文本的能力(Schulman et al., 2017)。

4. 指示微调(Instruction Tuning)技术

该技术可以辅助ChatGPT等系统生成高质量的文本(Wei et al., 2021)。指示微调是一项语言模型练习技术,通过将预设的指令描述与生成文本相结合,构建练习数据,从而微调文本生成模型的参数。其核心思想是将自然语言处理相关任务转化为基于指令描述的文本生成问题。基于指令描述,可以促使模型理解指令任务,从而生成预期文本。例如,用户输进“推断这句话的对错:三角形的内角和为360度”,其中“推断这句话的对错”是指令描述,指令任务是对“三角形的内角和为360度”进行正误推断,从而生成预期的答案文本“该句话错误”。

5. 思维链(Chain of Thought)技术

该技术通过一系列前后关联的指令,可以辅助ChatGPT等系统完成复杂推理任务(Wei et al., 2022)。语言模型虽然在对人类自然语言表征和建模上取得了显著进展,但在复杂逻辑问题推理上,仍较难达到称心的效果。思维链技术可以针对性地设计模型的指令输进,促使模型将单步骤推理任务拆解为包含多个中间步骤的任务。其中,每一个中间步骤由一个相对简单的指令输进作为引导,其结果代表了多步骤任务的逻辑分析过程。思维链技术可以引导文本类内容生成,辅助模型生成和解决复杂逻辑推理任务。

同时,为解决文本生成过程中产生与用户预期不符的行为问题,例如伪造事实、生成有成见或有害文本、不遵循用户指示等,ChatGPT等系统的技术研发遵循3H基本原则,即扶助性(Helpful)——模型应扶助用户解决问题、真实性(Honest)——模型不能伪造信息或误导用户、无害性(Harmless)——模型不能对人或环境造成身体、心理或社会性的侵害(Askell et al., 2021;Ouyang et al., 2022)。

(三)核心能力

上述相关技术与基本原则的科学合理使用,促使ChatGPT等系统在自然语言理解与内容生成方面,展示出以下四项较为突出的核心能力。

1. 启发性内容生成能力

2. 对话情境理解能力

ChatGPT等系统能够基于多轮对话中的上下文信息,进行语义理解和推理,捕捉用户意图与对话情境,生成符合逻辑的连贯性回复,为用户带来良好的交互体验。

3. 序列任务执行能力

ChatGPT等系统能够基于用户的序列指令描述,理解指令之间的关联关系,逐步对任务进行推进,完成基于组合指令的复杂任务,从而较好地执行用户给出的多步骤序列任务。

4. 程序语言解析能力

ChatGPT等系统能够依据多种编程语言的语法规则、数据结构、算法构建与编程规范,对代码程序进行结构与算法分析,并依据用户任务需求自动生成符合任务要求的代码程序或错因解析。

上述四项核心能力体现了当前生成式人工智能领域的重要突破和价值,也为其在教诲领域的使用提供了诸多可能性。

三、

潜在教诲使用

基于当前ChatGPT系统所具备的启发性内容生成、对话情境理解、序列任务执行、程序语言解析四项核心能力,我们从教、学、评、辅四个典型教诲环节,梳理了不同核心能力可以支持的潜在教诲使用,如图2所示。

图2 ChatGPT的潜在教诲使用

(一)教师教学

ChatGPT等系统可以为教师教学提供多种形态的扶助和服务。基于启发性内容生成能力,ChatGPT等系统可以依据教师的教学目的生成创作型教学素材,辅助教师设计有创新性的教学活动;基于对话情境理解能力,ChatGPT等系统可以在课堂教学中充当助教角色,依据当前教学活动情境,为教师提供教学过程的交互式支持;基于序列任务执行能力,ChatGPT等系统可以依据教学场景与个体教师的教学需求,生成个性化教学方案;基于程序语言解析能力,ChatGPT等系统可以为教师提供编程课程案例,支持典型问题及其变形的示例性代码生成与阐明。

具体而言,在辅助教师生成个性化教学方案的过程中,ChatGPT等系统可以依据教师的教学需求,分步骤生成多种适切的教学设计,为教师在备课过程中提供构思启发与多种备选方案,提升教师的备课效率与授课质量。例如,在中学语文课程《荷塘月色》的教案设计过程中,教师可以首先要求系统制造一份基础方案,包括教学主题、教学目的、教学内容、教学步骤、教学方法、教学评判、教学资源等模块。在此基础上,教师可以陆续要求系统增加互动环节,并自动生成朱自清生平小测验、荷塘故事续写等趣味教学活动,供自己参考和抉择性弥补到教案中。教师也可以要求系统增加课外拓展素材,系统则会从作者的其他代表作品、书信与日记、故乡文化等方面提供参考教学资源。

(二)学习过程

具体而言,在支持学生学科知识问答的过程中,ChatGPT系统可以基于多轮对话,为学生提供从现象分析、知识点讲解、使用影响等多层次服务。例如,系统可以为学生解答“苹果会落地”的物理学原理是地球引力作用,并进一步为学生讲解牛顿运动定律的知识点。假如学生陆续提问“这些原理和定律的用途”,系统可以正确理解其问题指向,并从日常生活到航空航天等角度进行解答并做合理扩展。

(三)教诲评判

ChatGPT等系统还可以针对性完成教诲评判的多项任务。基于启发性内容生成能力,ChatGPT等系统可以为学生作品和答案进行客看点评,引导学生挖掘作品优点并提供改良构思;基于对话情境理解能力,ChatGPT等系统可以对学生的语言表达能力进行评测,通过分析学生对话过程中的词汇、语法、句子结构,以及看点表达与事件描述方式,给出针对性的反馈意见;基于序列任务执行能力,ChatGPT等系统可以依据测试科目、观察目的、题目类型等组卷需求,自动生成多种备选测试题目,支持教师智能组卷;基于程序语言解析能力,ChatGPT等系统可以进行高效代码反馈与评判,纠正代码错误并提出优化意见。

(四)学业辅导

ChatGPT等系统还可以尝试完成较为复杂和专业的学业辅导任务。基于启发性内容生成能力,ChatGPT等系统可以生成针对性资源和素材,引导学生从不同角度对知识点进行理解,辅助提升学生的知识探究与创新能力;基于对话情境理解能力,ChatGPT等系统可以依据历史对话信息理解学生的实际辅导需求,结合当前学习内容,为学生提供个性化学习支持;基于序列任务执行能力,ChatGPT等系统可以针对学生的疑难问题进行分步骤解析,扶助学生理解问题求解的要点与难点;基于程序语言解析能力,ChatGPT等系统可以生成多维度代码阐明,包括参数设置、算法构思、逻辑关系等,扶助学生理解程序内涵与功能,辅助提升学生编程能力。

具体而言,在为学生生成知识探究与创新素材的过程中,ChatGPT等系统除可以生成以事实为依托的素材外,还可以生成基于假设的启发性素材,引导学生从不同维度解构知识,培植学生的思辨能力与探究意识。例如,当学生提问“假如荆轲刺秦王成功了,将会发生什么”,系统可以基于这种假设,为学生分析秦国是否还能统一六国以及中国历史的多种可能发展走向,启发学生对历史问题进行深进探求。

四、

教诲使用初步验证

本研究从教师教学、学习过程与教诲评判三个维度,分别选取题目生成、自动解题与辅助批阅三个具体教诲使用,对系统进行初步验证。所选用的系统是2023年2月最新版本的ChatGPT。

(一)题目生成

如表1所示,当用户给出数学使用题生成的指令后,系统可以自动生成符合指令要求且具备合理情境信息的题目及其答案,即通过小明购买水果的情境设置观察乘法与加法的运算。在此基础上,假如给出更改情境的指令,系统会进一步生成小明购买文具的情境并考查相同的数学知识点。最后,假如陆续用中文给出“请再出一道类似的英文习题”的指令,系统可以生成描述清楚且观察知识点相同的英文题目,而其具体情境可以有所不同。

表1 习题生成示例

经过多轮测试,系统可以继续生成质量和难度均适中的多学科、多情境习题,且大多数生成的题目包含参考答案,便于在教诲实际场景中使用。同时,通过给出后续指令,可以对所生成习题的细节性信息进行修改,并可以生成多语种题目。由此可见,在教师教学的使用维度,系统初步具备了依据教学目的生成创作型教学素材的使用能力,可以辅助教师完成包括题目生成在内的多项具体教学任务。

(二)自动解题

如表2所示,用户输进一道涉及加法、除法、百分比等相关知识的数学问题,系统可以自动生成解答内容。在解答内容中,系统首先指出已知条件,即盐的质量为2克,然后解析盐和水的总质量为202克,进而给出质量占比的具体计算公式并计算出正确结果。最后,系统用规范的语句正面回答了该数学问题。

表2 自动解题示例

为更好地验证系统的自动解题能力,我们从Multiarith数据集(Roy Dan, 2016)中选取了50道习题组成测试集。Multiarith数据集是一个多步骤算法数据集,包含600道小学级别的情景类数学题。通过调用InstructGPT相关模型接口进行继续测试,我们发现系统解题的平均正确率约为68%。该结果已经明显高于GPT-3的正确率,且解答错误的原因大多是源于对情境中所需常识性知识的误判。我们进一步对系统解题过程中的推理文字进行分析,发现所生成的文字合理且易懂,大幅度超过了之前GPT-3的逻辑表达能力。例如,GPT-3生成的解题构思通常会存在错误的因果关系和推理,但ChatGPT系统已经可以给出完全清楚的解题逻辑,且在要害步骤上均配有计算公式和描述。

通过以上试验,我们可以初步验证系统已经具有较好的自动解题功能,所生成的解题结果具有一定的正确性与可读性,其逻辑表达清楚且形式丰盛。由此可见,在学习过程维度,系统已经初步具备了完成个性化学科知识问答与支架式教学反馈等教诲使用的能力。另外需要指出的是,对于具有较为复杂情境的题目,ChatGPT系统自动解题和反馈能力还有待提高。

(三)辅助批阅

如表3所示,用户输进一道完全的题目及其错误解答,系统可以依据用户指示,自动推断答案正误并给出具体反馈,从而完成辅助批阅的基本任务。在生成的辅助批阅文本中,系统首先明确给出了正确与否的推断,然后用合理正确的语言给出了错误原因的分析,即指出桃树数量“不是仅仅是苹果树数量的1/5”,而应是“苹果树数量的1/5加上苹果树数量”。在此基础上,系统可以陆续自动给出合理的解题过程与正确的答案。

表3 辅助批阅示例

我们进一步对题目内容和答案进行更改并测试,发现系统可以继续输出类似的辅助批阅结果。由此可见,系统已经具有题目答案正误推断和错因分析等基本功能,即具备了对学生作品和习题答案进行客看点评和推断的能力。这种诊断性评判能力具有很高的教诲使用价值,是构建全流程自动化教诲评判服务的要害性技术保障和基础。

五、

局限与启迪

(一)局限与问题

以ChatGPT为代表的生成式人工智能系统仍然面临诸多局限。首先,系统仍然难以足够理解信息和分析信息内在的逻辑关系,因此很轻易生成不合理的内容或者犯事实性的错误。例如ChatGPT会非常自然地回答诸如“诸葛亮是如何打败秦始皇”或“林黛玉初见曹雪芹的情景”,所给出的错误且荒谬的答案体现了该技术并不能像人类一样完全理解知识体系与内在联系。这种事实性的错误也轻易误导不具备专业知识或相关常识的学习者,引起学习迷航与认知阻碍。

另外,生成式人工智能在中文语境和文字上的理解和表达能力总体上要弱于英文。例如对于“苹果比梨多1/6”这样含义的语句,ChatGPT经常会生成“苹果是梨的1/6”或“苹果是梨的1/6倍”这样的错误或不符合中文语言习惯的表述。这种能力差距源于预练习语料中以英文为主的现实情状,也因此可能导致非英语母语的学习者理解困难甚至理解错误。

同时,生成式人工智能技术也可能被恶意利用,造成较为严重的安全隐患。例如,可以用多步提示的方式,引导系统给出“如何进室盗窃”或“如何制造伤人工具”这类问题的危急答案。这些危急信息假如被各学段学习者获得和传播,会带来较为严重的青少年问题和社会危害。另外,生成式人工智能技术的数据源本身复杂且浩大,其生成的内容可能有知识产权问题,且轻易产生法律风险。例如在模型练习和微调过程中,ChatGPT等产品所需的大规模数据集不可避免要涉及各类受法律保护的知识产权类数据,这些未经著作权人授权的数据的使用以及所生成的相应内容,存在侵犯他人著作权或专利权的风险。

最后,需要指出的是,以ChatGPT为代表的生成式人工智能虽然在教诲领域有广泛的使用前景,但并非在所有场景都有重要使用潜力和作用。例如在教诲智能化治理与服务中,通常需要依靠正确的数据支撑和透明的决策模型,很难简单依靠“黑箱式”的生成式人工智能技术。另外,生成式人工智能的模型练习、测试与下游任务适配,均需要较大规模的计算资源和存储资源进行支持,这种高成本对于相当一部分教诲业务是难以承担的。因此,人工智能生成内容技术的教诲使用领域和场景也有一定的局限性,应避免在教诲领域盲目妥善和普及。

(二)启迪与展看

1. 推进教诲理念变革

2. 创新教学方式与内容

在重视高阶思维能力培植的教诲理念驱动下,生成式人工智能技术与产品对教学方式与教学内容的影响也会逐渐显现,并扮演不同的角色和发扬不同的作用。在教学方式上,需要鼓励教师积极创新课堂教学方式,将相关技术纳进不同学科的教学过程中,丰盛课堂活动内容及其趣味性。例如,通过设置具备良好交互能力的人工智能助教,提供实时机器反馈甚至人机争论环境,鼓励学生与机器助教开展共创性学习,继续性获取所需的个性化学习信息与资源,从而培植学生高阶思维能力和自主学习能力。在教学内容上,需要积极调整不同学科的培植目的和教学要求,更加强调学科核心素养导向的教学内容设置。例如当前人工智能生成内容技术已经具备良好的多语言代码生成与调试能力,初级程序员的社会分工可能将逐步消失。因此,对于基础教诲与职业教诲阶段的编程类教学,需要更加强调计算思维、人工智能素养与算法思维的培植,减少对于程序语言中语法细节的记忆性学习。

3. 鼓励教诲与技术互促共进

人工智能生成内容相关技术的演进速度非常快。以GPT系列为例,从第一代GPT-1到目前的ChatGPT经历了四代更新,每一代的性能都有明显提升,但更新换代的时间不足五年。因此,可以预见更加智能化和人性化的生成式人工智能技术与产品将会在短期内出现,其在自然语言处理等任务上的性能将进一步提升,也将具备更优异的内容理解、生成与泛化能力。因此,教诲需要积极适应人工智能技术的快速发展,对其持有更加开放和宽容的态度,鼓励教诲工作者秉持技术向善理念,研究和使用相关技术和工具,协作完成各类教学任务。同时,需要足够熟悉这类新技术不再是“拍照搜题”或“换脸软件”,而可能成为未来教诲的重要组成部分并对教诲领域具有深刻的变革性意义。另外,教诲领域也需要高度关注生成式人工智能技术的潜在安全与伦理风险,针对教诲领域的使用场景,推进制定相关法律法规,形成技术与教诲双螺旋式的互促共进。当通用人工智能已经逐步接近人类社会,教诲作为人类文明进取的基石,应该从容应对挑战且布满自信。

参考文献

向上滑动阅览

Askell, A., Bai, Y., Chen, A., Darin, D., Ganguli, D., Henighan, T., Jones, A., Joseph, N., Mann, B., DasSarma, N., Elhage, N., Hatfield-Dodds, Z., Hernandez, D., Kernion, J., Ndousse, K., Olsson, C., Amodei, D., Brown, T., Clark, J., ... Olah, C.(2021). A general language assistant as a laboratory for alignment. arXiv preprint arXiv, 2112.00861.

Bommasani, R., Hudon, D. A., Adeli, E., Altman, R., Arora, S., Arx, S., Bernstein, M., Bohg, J., Bosselut, A., Brunskill, E., Brynjolfsson, E., Buch, S., Card, D., Castellon, R., Chatterji, N., Chen, A., Creel, K., Davis, J., Demszky, D., ... Liang, P.(2021). On the opportunities and risks of foundation models. arXiv preprint arXiv, 2021:2108.07258.

Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D., Wu, J., Winter, C., ... Amodei, D.(2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877-1901.

Christiano, P. F., Leike, J., Brown, T., Martic, M., Legg, S., Amodei, D.(2017). Deep reinforcement learning from human preferences. Advances in neural information processing systems, 30.

Kosinski, M. (2023). Theory of Mind May Have Spontaneously Emerged in Large Language Models. arXiv preprint arXiv, 2302.02083.

OpenAI. (2022-04-06). DALL·E 2. OpenAI. /

OpenAI. (2022-11-30). ChatGPT: Optimizing Language Models for Dialogue.OpenAI. /

Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., Schulman, J., Hilton, J., Kelton, F., Miller, L., Simens, M., Askell, A., Welinder, P., Christiano, P., ... Lowe, R.(2022). Training language models to follow instructions with human feedback. arXiv preprint arXiv, 2203.02155.

Roy, S., Dan, R. (2015). Solving general arithmetic word problems. Proceedings of the Conference on Empirical Methods in Natural Language Processing, 15, 1743-1752.

Radford, A., Narasimhan, K., Salimans, T., Sutskever, I.(2018). Improving language understanding by generative pre-training.

Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., Sutskever, I.(2019). Language models are unsupervised multitask learners. OpenAI blog, 1(8), 9.

Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, Wei., Liu, P. (2019). Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, 21, 1-67.

Schulman, J., Wolski, F., Dhariwal, P., Radford, A., Klimov, O.(2017). Proximal policy optimization algorithms. arXiv preprint arXiv, 1707.06347.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A., Kaiser, L., Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30.

Wei, J., Bosma, M., Zhao, Y., Guu, K., Yu, W., Lester, B., Du, N., Dai, A. M., Le, V. (2021). Finetuned language models are zero-shot learners. International Conference on Learning Representations, 10.

Wei, J., Wang, X., Schuurmans, D., Bosma, M., Chi, E., Le, Q., Zhou, D. (2022). Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, 36.

Zhang, Z., Han, X., Liu, Z., Jiang, X., Sun, M., Liu, Q. (2019). ERNIE: Enhanced Language Representation with Informative Entities. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 1441-1451.

Educational Application and Prospect of Generative Artificial Intelligence:

Taking ChatGPT System as An Example

Yu Lu, Jinglei Yu, Penghe Chen, Muyun Li

Abstract: Generative Artificial Intelligence aims to automate the generation of multimodal data such as text, image, video, and audio using artificial intelligence technology, and has received wide attention in education field. Among them, ChatGPT, a text content generation system, reflects high potentials for multi-domain applications due to its good natural language understanding and generation capabilities. In this study, ChatGPT is used as the main object to explore the potential educational applications in four areas of teacher teaching, learning process, educational evaluation, and academic tutoring, based on its four core capabilities, namely, inspiring content generation capability, dialogue context understanding capability, sequential task execution capability, and programming language analysis capability. Based on this, preliminary validation of educational applications such as exercise generation, automatic problem solving, and assisted grading are conducted on the real system. Finally, the limitations faced by AIGC systems represented by ChatGPT in educational application areas and the implications for education are further explored.

Keywords: Generative Artificial Intelligence; ChatGPT; Large Language Model; artificial intelligence application in education

作者简介

卢宇,北京师范大学教诲学部未来教诲高精尖创新中心副教授。

余京蕾,北京师范大学教诲学部教诲技术学院博士研究生。

陈鹏鹤,北京师范大学教诲学部未来教诲高精尖创新中心讲师(通讯作者:chenpenghe@bnu.eu.cn)。

李沐云,北京师范大学教诲学部教诲技术学院硕士研究生。

基金项目:本文系北京市教诲科学“十四五”规划2021年度重点课题“人工智能驱动的新一代智能导学系统构建研究”(课题编号:CHAA21036)的研究成果。

责任编辑: 刘莉

精品悦读

焦建利|ChatGPT助推学校教诲数字化转型——人工智能时代学什么与怎么教

ChatGPT类产品:内在机制及其对学习评判的影响

出色再现丨《在线学习》2022产教合成典型案例展示

教诲部党组成员、副部长吴岩将分管职业教诲、陆续教诲、高等教诲和教诲信息化

出色再现丨《在线学习》2022思想者说

出色再现丨《在线学习》2022教诲数字化专家谈

出色再现丨《在线学习》2022封面专题

出色再现丨《在线学习》2022产教合成典型案例展示

教诲部党组成员、副部长吴岩将分管职业教诲、陆续教诲、高等教诲和教诲信息化

出色再现丨《在线学习》2022思想者说

出色再现丨《在线学习》2022教诲数字化专家谈

出色再现丨《在线学习》2022封面专题

上一篇:路通百业兴 长顺建设“四好农村路”推动高质量发展

下一篇:瞭看 | 一颗苹果里的甜肃故事

派趣吧

我来回答