七月即将结束,新学年即将到来。这是一个回顾过去一年并为未来一年制定计划的好时机。本月,我们将探讨过去一年教育领域最受关注的话题之一:人工智能及其在课堂中的作用。继续阅读 ChatGPT 实验(我尝试抄袭自己的一项作业)以及 HeinOnline 上正在进行的关于人工智能和 ChatGPT 的辩论和讨论的综述。
抄袭实验
ChatGPT 于2022 年 11 月向公众开放,距我教授最近的课程已经过去六个月,所以我还没有机会在课堂上遇到它。我尝试将一篇议论文作业的前两段输入 ChatGPT,我过去在入门作文课上给学生使用过这篇论文。以下是我输入 ChatGPT 的输入。
对于这项作业,您将提出一个学术论点,并使用可靠的学术研究证据支持该论点。该论点可能探讨趋势或问题的原因,为问题的解决方案辩护,在学术辩论中表明立场(不是道德或流行辩论),或分析文化现象。
无论您选择哪种方式,您都需要使用 UB 图书馆网站提供的资源进行研究。虽然其他地方可能有可靠的来源,但这项作业的部分目标是让您适应使用通过图书馆找到的学术资源。在支持您的论点时,您应该使用 4-8 个可靠的学术来源。您应该使用各种来源和类型的证据。
如你所见,就允许的主题而言,这篇论文的范围相当广泛——我喜欢让学生自由探索自己的兴趣。ChatGPT 为这篇论文想出了一个可以接受的(即使不是完全原创的)主题:“现代社会收入不平等的原因和后果”。在我的一些额外提示和更具体的指示下,ChatGPT 制作了一篇题为“收入不平等对社会和经济的影响”的论文大纲(同样,可以接受但没有启发性)。大纲包括一个引言段落;四个正文段落的骨架细节,每个段落都围绕 ChatGPT 选择的四个来源之一;以及一个结论。以下是 ChatGPT 生成的介绍。
收入不平等已成为现代社会中一个紧迫的社会和经济问题。贫富差距显著扩大,引发了人们对其 阿曼电话号码数据 对社会福祉和可持续发展的影响的担忧。本文旨在探讨收入不平等的原因和后果,并使用来自可靠学术来源的证据来支持这一论点:解决这一问题对于实现公平公正的社会至关重要。
对我来说,这个内容最值得注意的地方是它是多么的平淡无奇。介绍部分没有说太多,非 邮寄线索 常不具体,有些地方或多或少只是重复作业描述中的语言。有趣的是,这段话读起来确实像是一个没有经验的大一新生可能会写的介绍的合理复制品——也就是说,“还行,但肯定需要改进。”我从这个实验中得到的启示是,ChatGPT 本身不太擅长写论文,至少在单个提示下不行。即使给出一系列越来越具体的提示,它也能为我生成一篇论文的粗略大纲,如果学生进一步做大量工作,这篇论文就有可能符合我的作业标准。
在我的实验中,ChatGPT 在某些任务上表现相对较好。它找到可靠学术资 HeinOnline 课堂 料的能 利用当地媒体 力给我留下了深刻的印象:三本学术专著和一份来自乐施会的白皮书,它们都与收入不平等有关。但即使在这里,也存在一些问题。ChatGPT 找到的第一个资料来源是托马斯·皮凯蒂的《二十一世纪资本论》,这是一本近 700 页的宏观经济学教科书,几乎肯定超出了普通大一学生的理解范围。然而,这并不是 AI 独有的问题。很多学生通过其他方式(比如图书馆数据库)找到超出他们能力范围的研究资料。这就是为什么我们有教授和研究图书管理员——帮助学生将他们在研究中发现的往往令人不知所措的文献置于特定背景中。我不反对学生在导师或图书管理员的指导下使用 AI 查找研究资料——只要他们自己阅读这些资料,并得出自己的结论和分析。在我看来,这在道德上与使用任何其他可用的搜索工具并没有什么不同。当然,这是教育工作者之间持续争论的问题。
ChatGPT 能做什么和不能做什么
学者和研究人员还发现了使用 ChatGPT 替代人类研究和写作的其他严重缺陷。正如 Khym Lam Fidler 在《ChatGPT — 时代的模糊》中所说:[1] “对于应用程序来说,事实准确性并不像像知识渊博的人一样合理地陈述某事那么重要。”简而言之,ChatGPT 擅长生成令人信服的语言,但它不理解所生成内容的含义或上下文。从这个意义上说,“人工智能”有点用词不当,大多数专家称之为“大型语言模型”。语言学家Emily M. Bender 甚至将 ChatGPT 称为“随机鹦鹉”, 因为它倾向于模仿人类语言,同时看似随机地编造信息。