社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

第一篇因为ChatGPT而撤稿的SCI论文诞生,AI加速学术不端问题的恶化

生物世界 • 1 年前 • 270 次点击  

编译丨王聪

编辑丨王多鱼

排版丨水成文


如果你在一场考试中抄别人的答案,可怕的不是抄错了,而是把对方的名字也抄上了。这种看似玩笑的事情,却实实在在的发生了,而且发生在了一篇SCI论文中。

最近,学术期刊 Physica Scripta 撤稿了一篇刚发表的SCI论文【1】,这篇论文于2023年8月9日,Physica Scripta 期刊发表了一篇经过同行评议的学术论文,该论文旨在揭示一个复杂数学方程的新解,论文看起来似乎没什么问题。


然而,有读者在论文中发现了一个很奇怪也很突兀的短语——Regenerate response


实际上,这个短语是ChatGPT上一个按钮的标签。点击该按钮,ChatGPT就会重新生成一个回答。

ChatGPT,是由人工智能研究实验室 OpenAI 于2022年11月30日发布的全新聊天机器人模型——人工智能技术驱动的自然语言处理工具。ChatGPT能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流。自推出以来,ChatGPT强大的能力备受关注。一些已发表的论文显示,ChatGPT可以生成看起来非常真实的欺诈性科学论文,这引发了人们对科学研究的完整性和发表论文的可信度的严重担忧。

在被读者指出上述问题后,Physica Scripta 期刊的的出版商IOP出版社的同行评议和研究诚信负责人 Kim Eggleton 表示,论文作者们已经向期刊承认他们使用ChatGPT帮助起草了论文手稿。但该论文在两个月的同行评议期间和排版期间都没有被发现这个异常。

现在,出版社决定撤回这篇论文,撤稿原因是论文作者在投稿时没有声明他们使用了ChatGPT进行论文写作,违反了期刊的道德政策。

这只是冰山一角

这篇被撤稿的论文并不是唯一一篇使用了ChatGPT但未经申报就通过同行评议发表的论文。

自今年4月份以来,著名学术打假网站PubPeer就标记了超过12篇包含“Regenerate response”或As an AI language model, I …”这些ChatGPT标志性短语的论文。例如,今年8月3日在 Resources Policy 期刊发表的一篇论文中出现了这样一句话:“Please note that as an AI language model, I am unable to generate specific tables or conduct tests …“,而这篇论文的作者来自国内高校【2】

实际上,各大学术期刊出版社并没有抵制ChatGPT,例如,爱思唯尔(Elsevier)施普林格(Springer)等许多出版社都表示,论文作者可以使用ChatGPT和其他大型语言模型(LLM)来帮助论文写作,只要做出声明即可。

而检索这些ChatGPT特有的短语发现的这些论文只是冰山一角,只能暴露出那些忘记删除痕迹的论文,实际上使用ChatGPT帮助写作却并未声明的同行评议论文的实际数量可能要比知道的多得多。

AI写作的逼真程度令人震惊

完全或部分由AI撰写,而论文作者却没有做出声明,这种情况并不是什么新鲜事。但这些论文中通常包含了一些微妙但可察觉的痕迹,例如特定的语言模式或错误的翻译,这使得有些内容有别于人类的撰写特征。但如果使用ChatGPT这些更先进的AI工具,能够生成流畅的本文,论文作者再删除其中ChatGPT的模板短语,这些文章将很难被发现。

近日,Journal of Medical Internet Research 期刊发表了一篇题为:Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened(人工智能可以生成欺骗性但看起来真实的科学医学论文:潘多拉魔盒已被打开)的论文【3】

这篇论文显示,ChatGPT等人工智能(AI)语言模型可以生成看起来非常真实的欺诈性科学论文。


论文作者旨在研究人工智能语言模型ChatGPT在生成高质量欺骗性医学论文方面的能力。他们尝试利用OpenAI公司开发的基于GPT-3语言模型的热门人工智能聊天机器人ChatGPT生成神经外科领域的完全虚构的论文。

这项概念验证研究的结果是惊人的——ChatGPT成功生成了一篇欺骗性论文。论文的词汇使用、句子结构和整体构成方面与真正的科学论文非常相似。这篇论文包括标准论文的摘要(abstract)、介绍(introduction)、方法(methods)、结果(results)和讨论(discussion),以及表格和其他数据。令人惊讶的是,在没有任何人类用户特殊训练的情况下,整个论文创作过程只花了一个小时。

著名学术打假人 Elisabeth Bik 表示,ChatGPT和其他生成式人工智能工具的迅速崛起将给论文工厂提供助力,从而让学术不端问题严重恶化我非常担心现在已经有了大量我们无法甄别的论文。

背后的深层次原因

在期刊上发表的未声明由人工智能写作的论文的问题指出了一个更深层次的问题——紧缺的论文审稿人通常没有时间彻底搜索论文中问题。现在整个学术生态系统是“要么发表,要么灭亡”,论文数量越来越多,而论文审稿人的数量跟不上了。

ChatGPT等生成式人工智能写作的论文容易出现的一个问题是编造不存在的参考文献,这可能作为审稿人甄别论文是否由人工智能写作的一个信号。一篇论文中如果引用了不存在的参考文献,那么这篇论文就很可能是由人工智能写的。例如,Retraction Watch网站曾报道过一篇由ChatGPT编写的预印本论文尚未经过同行评议,该论文的参考文献就是ChatGPT瞎编的,实际并不存在。

随着ChatGPT等生成式人工智能越来越广泛的使用,有研究人员表示,或许将来审阅论文时,要先看参考文献了

参考资料
1. https://iopscience.iop.org/article/10.1088/1402-4896/aceb40
2. https://doi.org/10.1016/j.resourpol.2023.103980
3. https://www.jmir.org/2023/1/e46924
4. https://www.nature.com/articles/d41586-023-02477-w

设置星标,不错过精彩推文
开放转载
欢迎转发到朋友圈和微信群
 微信加群 
为促进前沿研究的传播和交流,我们组建了多个专业交流群,长按下方二维码,即可添加小编微信进群,由于申请人数较多,添加微信时请备注:学校/专业/姓名,如果是PI/教授,还请注明。


在看,传递你的品味


Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/161720
 
270 次点击