4个月编辑16篇!快速发文的密码已经找到?
公众号:基源医学在线
2023-07-07 15:00:47

最近看到了这样一则消息:

最新资讯

美国田纳西大学健康科学中心的放射科医生Som Biswas,在4个月内使用ChatGPT编辑了16篇论文,并在4个不同的期刊上发表了5篇。他将使用ChatGPT第一次尝试的论文提交给了《放射学》杂志,这是北美放射学会的一份同行评审月刊。同时,他也向编辑坦言:你看到的都是AI写的。几天后,这篇题为《ChatGPT与医学写作的未来》的论文通过了同行评审,并顺利发表。

 

一时间,喧嚣尘上,人们对这种人工智能式创作的可行性展开了激烈讨论:

“这论文谁会读”

“这不违法吗”

“这属于人指导下的工作,不违法”

“chatGPT是用来组织语言,搭框架”

“你给GPT提供相关资料后,GPT可以用学术或联网插件搜索更多相关资料,基于对这个领域的足够了解,从而写出有依据的文章”

……

 

4月28日,Biswas在《儿科放射学》杂志上以评论的形式发表了最新的一篇文章。

 

在这篇文章中,Biswas是唯一的作者,他在结尾处承认了这篇文章是通过ChatGPT完成的。同时,他表示利用AI写的论文并不限于放射学专业。事实上,他还写了关于ChatGPT在军事、教育、农业、社交媒体等方面的论文。并且,他已经成功地将这些文章发表在不同的小众学科期刊上。(其中一篇关于计算机编程的论文发表在《美索不达米亚计算机科学杂志》,2封主题关于全球变暖和公共卫生的致编辑的信发表在《生物医学工程年鉴》)

 

Biswas的成功证明了,以ChatGPT为代表的大型语言模型(LLM)在生产效率方面的显著优势,但同时,许多专家也对学术出版的可信度是否会受到侵蚀表示担忧。

 

对此,相信很多人也都会有这样的疑问:期刊为什么会发表这类AI创作作品?

 

《生物医学工程年鉴》主编Stefan Duma表示:

在过去的几个月里,他看到的期刊投稿量正呈指数级增长——包括2篇来自Biswas给编辑部的信。Duma解释说,发给编辑的信基本上是期刊的意见部分,对发表文章的写作类型和研究深度没有过多限制,这也是为什么他会同意把Biswas投稿的2篇文章进行发表的关键原因之一。与此同时,Duma补充道,由于投稿文章质量较低,他也一直在拒绝更多通过ChatGPT和其他LLM生成的文章。

 

此外,上文提及的两本期刊——《儿科放射学》及《美索不达米亚计算机科学杂志》,没有对媒体的置评请求进行回应。

 

微生物学家、科学诚信专家Elisabeth Bik认为:

公众应该予以Biswas一些信任,因为相对于很多发表了大量文章且不敢承认使用了ChatGPT的人而言,Biswas做到了诚实。

 

对于目前学术界使用LLM技术参与创作这件事,Bik有两种看法。一方面,她认为对于第一语言不是英语的研究人员来说,它是一种宝贵的工具,可以用来构建连贯的句子和段落。另一方面,她也承认,很多研究人员明显滥用这项技术,从而在短期内就发表了数十篇文章。至于滥用产生的原因,Bik认为与“引用和出版物数量这两个衡量学术水平的指标”密不可分,如果可以找到一种人为的方式来提高这些东西,这样就可以轻松地赢得更好的绩效指标。

 

Bik还担心对LLM的使用激增更会助长“论文工厂”泛滥。她的担忧也是学界和出版界共同关心的问题。

 

检测“论文造假”已成为学术界面临的最大挑战。

 

今年5月,以学术出版伦理为重点的非营利组织出版伦理委员会(COPE)和国际科学技术和医学出版商协会(STM)对于论文造假一事召集了一场峰会。峰会汇集了国际研究人员,包括独立研究诚信分析师,以及来自资助机构和出版商的代表。

 

会中,各界精英各抒己见,不少人对这种现状表示担忧。

 

澳大利亚悉尼大学的分子生物学家Jennifer Byrne说:“随着AI的迅速发展,论文工厂生成合理原始数据的能力将得到快速提升。”

德国海德堡欧洲生物学会图像数据完整性分析师Jana Christopher说:“我见过AI刚刚生成的假显微镜图像,但如何确凿证明图像是由AI生成的,仍然是一个挑战。”

 

自由柏林大学社会科学家和独立研究诚信分析师Anna Abalkina怀疑,由于同行评审过程的周期长,这些AI工具在学术文献中明显增多的时间,可能会有所延迟。

COPE的董事和研究诚信顾问Deborah Kahn表示,虽然不能否认AI对科学研究有积极作用,但仍有必要区分使用AI编写的合法论文和完全捏造的论文。

 

峰会期间,人们提出可以通过要求作者提供带有水印的实验原始数据,从而帮助出版商确认数据的真实性的检测方法。

 

但也有与会者表示,目前各出版商对于原始数据的提交要求差异很大,所以需要根据实际情况,对跨出版商提交的原始数据标准进行统一。

 

目前,STM正在研发论文造假检测软件,同时通过其诚信中心收集有关其他类似工具的资源。这些工具既能用于在提交时检测论文造假,也能用于识别已经发表的假论,相信不久的将来,一定会有更好的办法查处“论文造假”。

 


资料:

[1]https://www.thedailybeast.com/how-this-doctor-wrote-dozens-of-science-papers-with-chatgpt

[2]https://www.nature.com/articles/d41586-023-01780-w

 

“基源医学在线”是一个专注于医学教育传播和远程信息交流服务的学术直播平台。平台目前拥有30W+医药注册用户,涵盖20余个临床科室。平台利用行业尖端技术优势,采用直播&互动深度结合模式,满足医学直播、医学课程、手术直播、病例征集等不同应用场景,支持大规模千万量级用户同时在线,方便用户随时开展学术交流,促进医学信息合作共享,推动医学行业发展。

咨询电话:4000-876-388;邮箱:zgt_1104@foxmail.com。

文案制作

排版 | 星星之火

审核 | embrance

联系我们