先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi
ChatGPT 大家肯定都不陌生,前段时间其因为强大的能力而备受人们关注。在之前的一段时间里,菌菌朋友圈里满是和 ChatGPT 的问答截图,更有一些朋友开发了 ChatGPT 的新用途 —— 润色论文。事实上,使用人工智能来帮助非英语母语的作者润色论文并不是什么了不得的事情,只要在文中添加声明来披露对 AI 的使用就行。但在科研圈里,用 ChatGPT 直接生成一篇论文却是被绝对禁止的事情,原因甚至有些令人难以置信:ChatGPT 在写论文时擅长胡诌,尤其擅长无中生有,依靠它生成的论文根本不可靠!这不,最近就有作者因为用 ChatGPT 生成了论文而被出版商拉黑 ……2023 年 6 月,丹麦一位研究千足虫的专家 Henrik Enghoff 收到一封电子邮件,被告知他的两篇论文被一份发布在 Preprints.org 的手稿引用了。自己的论文被引用当然是一件很开心的事情,但当 Enghoff 教授下载了这篇论文后,发现事情并不简单。虽然论文中明确引用了他的论文,但是这些论文他并没有写过,甚至和他的研究内容毫不相干。这究竟是怎么回事呢?Enghoff 联系了他在哥本哈根大学的同事 David Richard Nash。Nash 在几个月前一直在试验是否可以用 ChatGPT 来查找某一领域的文献。当他要求 ChatGPT 提供相关研究领域最新的十篇参考文献时,得到的结果中只有一篇是真实存在的。在得知 Enghoff 的情况后,Nash 随机搜索了一下那篇论文中的5 篇参考文献,发现竟然都是虚构的。惊讶之余的 Nash 向 Preprints.org 进行了举报,认为这篇论文很可能是通过 ChatGPT 等人工智能生成的。管理 Preprints.org 的出版商 MDPI 的编辑在收到邮件后,表示会撤回这篇预印本文章,并将该文章的作者列入到出版商的黑名单中。这件事看似已经告一段落,但是 AI 对科研圈的影响却由此可见一斑。在 ChatGPT 发布以后,就有一些科学家将其列为了论文的合著者,比如在去年 12 月发布的一篇预印本论文中,ChatGPT 就赫然出现在了作者列表中。除了这篇论文,ChatGPT 还多次出现在经过同行评议的论文中,比如下面这篇题为《Rapamycin in the context of Pascal’s Wager: generative pre-trained transformer perspective》的论文,就将 ChatGPT 列为共同作者。
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
图片来源:论文截图事实上,ChatGPT 确实可以生成看起来像模像样的科学论文,但这些论文很多时候是具有欺诈性的。一方面,因为 ChatGPT 是基于大量的文本数据进行训练的,它生成的内容可能会包含错误的信息或者不准确的数据,因此使用 ChatGPT 生成论文很容易捏造事实,包括一些不存在的参考文献;另一方面,训练数据集可能还会影响论文的深度,简单生成的论文并不能对关注的科学问题进行深入的思考和分析。之前就有网友在某乎提问:为什么 ChatGPT 会给出虚假的参考文献?不难看出,ChatGPT 这个 「 嘴瓢 」 的特性并不是个例,只要用的人都知道,它确实会为了完成咱们交代的任务进行一定的瞎编乱造。以上的诸多问题引发了人们对于 ChatGPT 生成的科学论文的可信度的严重担忧。今年 5 月,期刊 Journal of Medical Internet Research 便发表了一篇题为《Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened》的论文,以探讨 ChatGPT 在生成高质量欺骗性医学论文方面的能力。结果令人惊讶,ChatGPT 只需要 1 小时就可以生成一篇很像样的论文,包括摘要(abstract)、前言(introduction)、方法(methods)、结果(results)和讨论(discussion)等部分,甚至连表格和其他数据都一并生成了!这效率,只能感慨一句恐怖如斯!只是数据的真实性惨不忍睹。拒绝滥用 AI,坐好 ChatGPT 热潮下的 「 冷板凳 」总的来说,当前诸多期刊都要求作者不得使用大型语言模型工具生成论文文本,并禁止将相关工具列为作者。在这种趋势之下,咱们在撰写论文时便不应该贪多求快,盲目相信 ChatGPT 可以生成无懈可击的科研论文。要知道,对于科研人来说,论文就是自己的代名词,一旦出现造假或者拒稿,毁掉的就是自己的学术生涯。尽管当前期刊和出版商可能没办法完美地鉴别出使用 AI 生成的论文,但随着审查机制和工具的发展,这些通过 AI 生成的不靠谱论文终究还是会被揪出来。毫无疑问,AI 确实是促进科学研究的好帮手,但是在 ChatGPT 的浪潮之下,作为一名合格的科研人,我们更加应该恪守学术道德的底线,而不是做一个被 AI 支配的工具人。
本文链接:https://shikelang.cc/post/922.html
网友评论