先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
01
看到网友 Andy Stapleton 的一个视频,题目叫做《利用人工智能的力量开展研究:ChatGPT是如何改变游戏规则的》(Harness the power of AI for research: How ChatGPT is changing the game),很受启发。
的确,类似ChatGPT这样的大型语言模型,肯定是可以被用于我们的科学研究工作的,尤其是教育科学、人文、行为科学和社会科学研究工作的。
那么,ChatGPT到底可以帮助研究人员做什么呢?ChatGPT可用于生成各种NLP任务的合成文本数据,如文本分类、机器翻译和文本生成。生成的文本数据可以作为NLP模型的额外训练数据,这可以帮助提高它们的性能。ChatGPT可用于生成现有文本数据的变体,这可作为NLP模型的额外训练数据。这可以帮助提高模型的稳健性和通用性。ChatGPT可用于生成长文档的文本摘要。该模型可以在摘要文档的数据集上进行微调以提高其性能。ChatGPT可用于开发能够与用户进行开放式对话的对话代理或对话系统。该模型可以在大型对话数据集上进行微调,以使其更加稳健和类似人类。ChatGPT可以用来对大量的文本数据进行情感分析。该模型可以在情感注释的数据集上进行微调,以提高其准确性。通过在相关训练数据上进行微调,该模型的能力可以扩展到其他NLP任务。我们再进一步思考。ChatGPT是否可用于分析教育研究中的口头访谈录音的定性数据呢?在传统的教育研究情形中,这个工作非常繁琐、费力,效率自然也非常低。Photo by UX Indonesia on Unsplash我们可以一起来设想一下,ChatGPT在这个访谈类的质性研究中是否可以用于协助处理录音数据呢?
研究人员首先使用一些 Speech-2-Text 的工具,将访谈类数据(语音模式的),转换成为文本格式,这样就可以使用转录的文本数据,让ChatGPT以及其他人工智能工具协助我们进行进一步的分析。ChatGPT可以在情感注释的数据集上进行微调,对转录的文本数据进行情感分析。这可以帮助了解参与者对访谈中讨论的各种话题的意见、情感和态度。ChatGPT可以在主题注释的数据集上进行微调,对转录的文本数据进行主题建模。这可以帮助确定访谈中讨论的主要主题和话题,以及它们被提及的频率。ChatGPT可以在命名实体注释的数据集上进行微调,以对转录的文本数据进行命名实体识别。这可以帮助识别命名实体,如访谈中提到的人、组织和地点。例如,在一项教育研究中,研究人员可能会对教师进行口头访谈,以了解他们对一种新教学方法的看法和态度。研究者可以使用ChatGPT对转录录音并进行情感分析,以了解教师对新方法的态度、观点和看法。研究者还可以使用ChatGPT进行主题建模,以确定访谈中讨论的主要话题,如新方法的优势和劣势,并使用命名实体识别来确定访谈中提到的人物、组织或地点。通过使用ChatGPT来分析口头访谈记录中的定性数据,研究人员可以对数据有更深入的了解,与人工分析相比,可以节省时间和精力。Kung 和 Cheatham 等人(2022)评估了大型语言模型ChatGPT在美国医学执照考试(USMLE)中的表现,该考试由三个考试组成:步骤1、步骤2CK和步骤3。ChatGPT在没有任何专门训练或强化的情况下,在所有三次考试中的表现都达到或接近通过门槛。此外,ChatGPT在其解释中表现出高水平的一致性和洞察力。这些结果表明,大型语言模型有可能协助医学教育,甚至有可能协助临床决策。这个,在之前的一篇推文 《ChatGPT通过医师资格考试》中有较为详细的介绍,这里就不再赘述了!Photo by Kelly Sikkema on UnsplashAlshater (2022)认为,ChatGPT应该对科学研究工作有帮助,尤其是用于构建研究性研究中所涉及的一系列任务,但是,并没有实证验证。就目前而言,在可见的报道中,将ChatGPT应用于科学研究的实践探索大多集中在研究摘要的创建和文献综述方面。在社交媒体上,可以看到很多有关帮助研究人员进行文献综述、摘要创建、题目拟定方面的提示语设计,这些提示语可以帮助研究人员快速地将 ChatGPT整合到自己的研究工作中。例如,Aydin 和 Karaarslan (2022)试图创建一个适合学术期刊的医疗保健方面的文献综述,结果发现,尽管ChatGPT可以帮助生成文献综述,但是,可能存在相当大的“剽窃”嫌疑,或给予了糟糕的释义。自留地君曾有一篇《ChatGPT:信息素养研究综述》,就是利用 ChatGPT生成的。尽管可以快速获取一部分文献和信息,但总体感觉平淡无奇。
GAO等人 (2022)发现,尽管ChatGPT所生成的摘要可以通过AI 生成文字识别系统鉴别为由 AI 平台生成的,但是,它确实可以在没有明显剽窃痕迹的情况下生成新颖的论文摘要。Chen 和 Eger (2022)还探讨了学术论文标题和摘要的生成方面的可能性。在金融领域,Wenzlaff 和 Spaeth (2022)发现,ChatGPT能够对新的金融概念生成合理的、学术上适当的概念界定。 通过展示该平台可以作为对开放性文本调查结果评分的一个补充,Mellon 等人 (2022)探讨了ChatGPT在研究测试方面的一个应用。虽然Adesso (2022)使用 GPT3 撰写了一篇完整的物理学论文, “按原样”提交给了期刊, Zhai (2022)也尝试创建研究论文的大纲。根据金融期刊审稿人对生成输出的评级,Dowling 和 Lucey(2023)发现, AI 聊天机器人 ChatGPT 可以显著协助金融研究。并且,原则上,这些结果应该可以跨研究领域推广。在Dowling 和 Lucey(2023)看来,在想法生成和数据识别方面,ChatGPT有明显的优势。然而,该技术在文献综述和开发适当的测试框架方面相对较弱。在过去的2个多月的时间里,许许多多的科学家和科学研究人员,尝试使用ChatGPT辅助科学研究过程中的某些任务,取得了令人振奋的成绩,也发现了许多发人深思的问题。
研究人员和其他人已经使用 ChatGPT 和其他大型语言模型来撰写论文和演讲稿、进行文献综述、起草论文和修改完善论文,以及找到和确定研究差距与研究空白,编写计算机代码,包括统计分析。很快,这项技术将发展到可以设计实验、撰写和完成手稿、进行同行评审以及支持编辑决定接受或拒绝手稿的程度。为此,有不少人惊呼,ChatGPT之类的聊天机器人在一定程度上可以说是科学研究的游戏规则改变者。ChatGPT之类的聊天机器人可能会彻底改变科学研究实践和学术出版,从而创造更多的机会和更多的担忧。它可能会加速创新过程,缩短出版时间,并通过帮助人们流利地写作,使科学变得更加公平,从而增加科学观点和学术思想的多样性。然而,它也可能会降低研究的质量和透明度,并从根本上改变我们作为人类研究人员的自主权。ChatGPT 和其他大型语言模型所生成的文本令人信服,但往往是错误的,因此,将其应用到科学研究实践中,如使用不当,可能会歪曲科学事实,甚至传播错误信息。该图片由Gerd Altmann在Pixabay上发布将生成性人工智能创造性地应用于科学研究的过程之中,无论是文献研读、写作、思路凝练、文献萃取、甚至文本声称,我们应当鼓励研究人员创新应用,但是,无论是研究人员,还是编辑和审稿人员,应当始终坚持人工验证,这是我们的基础和前提。不仅如此,对于科学研究机构、高等院校、科研院所、期刊杂志、学术会议、和学术评审部门,应当及时升级更新规则,制定问责机制。学术论文和学位论文的作者,在论文贡献声明和致谢部分,应当清楚具体地说明,在准备手稿和收集与数据分析等过程中,作者是否使用了AI 以及在何种程度上使用了 ChatGPT 等人工智能技术。他们还应该明确地指出使用了哪些大型语言模型或其他人工智能技术。这将提醒编辑和审稿人更仔细地审查手稿,以发现潜在的偏见、不准确和不正确的来源来源。同样,科学期刊应该对大型语言模型的使用保持透明,例如,在选择提交的手稿时。
王慧 主笔&内容老师
本文链接:https://lechangxia.cc/gpt4/241.html