ChatGPT:研究表明人工智能可以为期刊撰写足够好的学术论文。Credit: Shutterstock
据美国物理学家组织网(by Brian Lucey and Michael Dowling, The Conversation):一些世界上最大的学术期刊出版商已经禁止或限制他们的作者使用先进的聊天机器人ChatGPT。因为机器人使用来自互联网的信息来产生高度可读的问题答案,出版商担心不准确或抄袭的作品可能会进入学术文献的页面。
一些研究人员已经将聊天机器人列为学术研究的合著者,一些出版商已经禁止了这种做法。但世界顶级科学期刊之一《科学》的主编更进一步,禁止在提交的论文中使用该项目的任何文本。
学术出版商对此类聊天机器人的使用感兴趣并不奇怪。我们最近发表在《金融研究快报》上的研究表明,ChatGPT可以用来撰写学术期刊认可的金融论文。虽然这个机器人在某些方面比其他方面表现得更好,但加入我们自己的专业知识有助于克服期刊评论者眼中该程序的局限性。
然而,我们认为出版商和研究人员不应该将ChatGPT视为一种威胁,而是一种潜在的重要研究助手——一种低成本甚至免费的电子助手。
我们的想法是:如果简单地使用ChatGPT就能很容易地获得好的结果,也许我们可以做一些额外的事情来将这些好的结果转化为伟大的结果。
我们首先要求ChatGPT生成研究的标准四个部分:研究想法、文献综述(对同一主题的先前学术研究的评估)、数据集以及对测试和检查的建议。我们只指定了广泛的主题,并且输出应该能够在“一个好的金融期刊”上发表。
这是我们选择使用ChatGPT的第一个版本。对于第二版,我们在ChatGPT窗口中粘贴了不到200篇相关的现有研究的摘要。
然后,我们要求该计划在创建四个研究阶段时考虑这些因素。最后,对于第三版,我们增加了“领域专业知识”——来自学术研究人员的输入。我们阅读了计算机程序产生的答案,并提出了改进建议。在此过程中,我们将我们的专业知识与ChatGPT的专业知识相结合。
然后,我们要求一个由32名评审人员组成的小组,每个人评审一个版本的ChatGPT如何用于生成学术研究。评论者被要求评价研究结果是否足够全面、正确,以及它是否做出了足够新颖的贡献,可以在“好”的学术金融期刊上发表。
最大的教训是,所有这些研究都被专家评论者普遍认为是可以接受的。这相当令人震惊:聊天机器人被认为能够产生高质量的学术研究想法。这就提出了关于创造力和创意所有权的基本问题——还没有人有确切答案的问题。
优势和劣势
研究结果还强调了ChatGPT的一些潜在优势和劣势。我们发现不同的研究部分有不同的评分。研究理念和数据集往往被评为高。文献综述和测试建议的评分较低,但仍可接受。
我们怀疑ChatGPT特别擅长获取一组外部文本并将它们连接起来(一个研究想法的本质),或者从一个文档中获取容易识别的部分并对它们进行调整(一个例子是数据摘要——大多数研究中容易识别的“文本块”)。
当任务更复杂时,当概念过程有太多阶段时,平台的相对弱点变得明显。文献综述和测试往往属于这一类。ChatGPT倾向于擅长其中的一些步骤,但不是所有步骤。这个好像被审稿人捡到了。
然而,在我们最高级的版本(第三版)中,我们能够克服这些限制,在那里我们与ChatGPT一起工作,得出可接受的结果。随后,高级研究的所有部分都得到了评论者的高度评价,这表明学术研究人员的角色尚未消亡。
伦理含义
ChatGPT是一个工具。在我们的研究中,我们表明,只要小心,它可以用来生成一个可接受的金融研究。即使不小心,它也会产生看似合理的工作。
这有一些明显的伦理含义。研究诚信已经是学术界的一个紧迫问题,RetractionWatch等网站源源不断地发布虚假、抄袭和完全错误的研究报告。ChatGPT会让这个问题变得更糟吗?
简短的回答是,可能。但是没有办法把精灵放回瓶子里。这项技术也只会变得更好(更快)。我们究竟应该如何承认和监管ChatGPT在研究中的作用,这是一个更大的问题。但我们的发现在这方面也是有用的——通过发现具有研究人员专业知识的ChatGPT研究版本更优越,我们表明人类研究人员的投入在可接受的研究中仍然至关重要。
目前,我们认为研究人员应该将ChatGPT视为助手,而不是威胁。它可能特别有助于那些往往缺乏传统(人力)研究援助财政资源的研究人员群体:新兴经济体研究人员、研究生和早期职业研究人员。ChatGPT(和类似的项目)可能有助于研究过程的民主化。
但是研究人员需要注意在准备期刊论文时禁止使用它。很明显,人们对这项技术的看法大相径庭,因此需要小心使用。