编辑:Aeneas 好困
【新智元导读】最近,一篇数学论文被发现ChatGPT痕迹,惨遭撤稿。打假人痛心疾呼:我们的学术圈,早已被AI写的论文吞没了!科研圈,快被ChatGPT生成的论文吞没了!
8月9日,一篇收录于期刊上的论文,提出了一种复杂数学方程的全新解决方案。
经常用ChatGPT的小伙伴,看到这个短语,都会会心一笑。
「Regenerate Response」是网页版ChatGPT上的一个按钮,现在更新成了「Regenerate」。
他们邀请了72名世界顶级语言学期刊的专家,要求他们来审查各种研究摘要,但即使是这样的专业人士,也很难识别出哪些摘要是人写的,哪些是AI写的。
在62%的情况下,他们会被AI骗过去。
不过,英国科研诚信办公室的Matt Hodgkinson表示,有些论文也会包含一些微妙的痕迹,让我们可以隐约发现ChatGPT的「身影」。
比如,一些常见于AI的特定语言模式,以及翻译得怪里怪气的「奇妙短语」。
此处浅浅地感受一下:深度神经网络——profound neural organization(深刻神经组织) 。
以及人工智能——counterfeit consciousness(仿制意识/虚伪意识);大数据——colossal information(巨信息);云计算—— haze figuring(霾运筹);GPU——designs preparing unit(设计准备器) ;CPU——focal preparing unit(焦点准备器)等等。
除此之外,AI在生成参考文献时也是相当的「天马行空」,而这就可以作为同行评审时的重要参考。
例如,(《撤稿观察》)就曾揭露过一篇关于马陆(millipedes)的预印本论文是由ChatGPT编写的。
在一位研究人员发现文章中引用的一篇「论文」竟然是自己写的后,注意到了这里面提到的大量参考文献,都是假的。
类似的,丹麦国家血清研究所(State Serum Institute)的微生物学家Rune Stensvold也遇到了AI伪造参考文献的问题。
当时,一名学生向AI聊天机器人寻求有关肠道寄生虫——芽囊原虫属(Blastocystis)的文献建议,而这个聊天机器人则凭空编造了一篇以Stensvold为作者的参考文献。
于是,这位学生就去找了Stensvold,表示希望能获取这篇他发表于2006年的「论文」。
显然,这篇论文根本就不存在。
然而,正如之前提到的,对于这些明显会暴露论文使用了AI的痕迹,聪明的作者很容易就能把它们删得一干二净。
如此一来,想要发现是否实用了AI,就变成了一个不可能的任务。
Cabanac等打假人发现,无论是同行评审的会议论文,还是未经同行评审的预印本论文中,都存在大量使用了ChatGPT但未披露的情况。
当这些论文被挂在PubPeer上之后,有部分作者会承认的确使用了ChatGPT,但并未声明。
Hodgkinson表示:「本质上,这是一场军备竞赛。就看骗子和侦探谁能胜出了。」
学术界要被攻陷了!总之,形势已经很严峻。
Elisabeth Bik已辞去工作,成为大众知名的专业打假人
旧金山的一位微生物学家、独立研究诚信顾问Elisabeth Bik表示,ChatGPT和其他生成式AI工具的迅猛崛起,为「论文工厂」提供了充足的弹药。
这是一条完善的产业链:这些公司大量生产和炮制出虚假的论文,卖给急需提高学术成果产量的研究者。
Bik说,现在问题已经恶化了一百倍。
如今的学术圈,可能已经充斥着一大批AI生产的「垃圾」论文。我们根本无从分辨,哪些是经过认真研究产生的严肃学术成果,哪些是AI炮制出来滥竽充数的「垃圾」。
同行评审:时间紧,人不够
那么问题来了,为什么那些由AI生成的假论文,能屡次通过如此严格的同行评审?
一方面,ChatGPT这类的技术还比较新,并不是所有人都能有效辨别;另一方面,同行评审可能根本没有时间来检查这个问题。
对此,化名「Smuts Clyde」去揭发伪造论文的David Bimler表示,期刊中那些由LLM生成且未被发现的论文,指向了一个更深层次的问题:同行评审往往足够多的没有时间,来彻底检查稿件中的可疑之处。
「毕竟,整个科学界的态度就是『要么发表,要么死亡(Publish or perish)』」,Bimler说,「因此『守门人』的数量永远都不是够的。」
也许,这就是当前残酷的现实:评审论文需要大量的时间和专业知识,但AI只需几分钟就能完成一篇,无论它的质量是多差。
参考资料:
相关文章
猜你喜欢