新闻 /
用 AI 援救阅读文件、润色抒发乃止论文撰写,可能依然成为好多东谈主征询责任中的一部分了,便捷诚然便捷,但 AI 的多数使用也激勉了好多乱象。最近Nature专栏的一篇报谈就揭流露,数百篇发表在泰斗学术期刊上的论文被发现含有昭彰的 AI 生成陈迹,而作家却未按章程深远 AI 的使用。更令东谈主担忧的是,这些未深远 AI 使用的论文不仅出现时微型期刊,还出现时由ElsevierSpringer NatureIEEE等顶级学术出书商刊行的期刊中。

问题源流通过一些洒落在论文文本中的、极具辨识度的 AI 陈迹暴流露来。一些科学诚信的监督者们督察到,一些学术论文中竟出现了诸如“regenerate response”(从头生成恢复)这么的短语,竟然是作家在复制粘贴 AI 生成现及时“手滑”的径直笔据。
访佛的“露馅”短语还有不少。举例,“as an AI language model”(动作一个 AI 言语模子)、“Certainly, here are…”(天然,这里是……)以及“As of my last knowledge update…”(截止我临了的常识更新……)等。这些每每是 AI 在回答问题时自带的章程性开场白、组织性辅导语,或是对其自身信息局限性的免责声明。这种昭彰的 AI 用语,竟然多数冠冕堂皇地出现时了隆重的学术论文中。

肯塔基大学路易斯维尔分校的征询教养与传播讲师 Alex Glynn 是系统跟踪这一欢娱的学者之一。他创建了一个名为“Academ-AI”的在线数据库,有益收录那些包含昭彰 AI 生成陈迹但未声明的学术文件案例。截止现时,该数据库已记载了向上 700 篇此类论文。Glynn 在一项对数据库中前 500 个案例的初步分析中发现,这个问题的影响领域远超预期。数据炫耀,这些存在问题的论文并非只是出现时影响力较低或旯旮性的出书物中,其中高达 13% 的论文发表在由ElsevierSpringer NatureMDPI等外洋大型、闻明学术出书商出书的期刊上。

波兰卡托维兹经济大学的征询员 Artur Strzelecki 对一些闻明期刊进行了征询,也相似发现了这一欢娱。他在学术期刊Learned Publishing上发表的征询,识别了 89 篇发表在被 Web of Science 或 Scopus 数据库收录、领有影响因子或 CiteScore 主义的期刊上的论文,这些论文均带有明确的 ChatGPT 生成现实的“钤记”。令东谈主惊怖的是,其中 64 篇论文(占比向上 70%)场所的期刊在其各自学科限制内位于 Scopus 数据库名次的前 25%(即 Q1 区),更有 28 篇论文场所的期刊名次在前 10%(即 90th percentile 以上)。举例,影响因子极高的顶级期刊如Trends in Analytical ChemistryTrends in Food Science & Technology也未能避免,其发表的著作中也出现了此类 AI 陈迹。
这些征询还揭示了问题的学科漫衍。Strzelecki 的分析炫耀,在识别出的 89 篇论文中,医学(19 篇)、计较机科学(17 篇)和工程学(16 篇)是重灾地,但环境科学(10 篇)、社会学、西宾学、不断学(各 7 篇)以及经济学(6 篇)等限制也均有波及。这标明 AI 的未深远使用已平时渗入到多个学科限制。

更令东谈主担忧的是,这些可能包含未陶冶证现实的论文依然运行参加正常的科学调换轮回中。斯特泽莱茨基的征询指出,截止 2024 年 9 月 30 日,他所分析的 89 篇论文中,已有 60 篇被后续的其他学术文件援用,总援用次数达到 528 次。这意味着,潜在的、由 AI 引入的不实或不准肯定息,可能正在通过援用链被放大和传播,对科学常识的蓄积酿成潜在混浊。

对于那些依然被发现 AI 未深远使用的论文,基本上都依然被作念了撤稿处理。举例,闻明学术监督网站“撤稿不雅察”(Retraction Watch)最近就公布了多起关系案例。举例,一位谷歌工程师的预印本手稿因包含 AI 生成的奇怪短语(如“squared blunder”和“info picture”)而被挂念;另一篇饱和由 ChatGPT 撰写的对于千足虫的预印本,因包含不实参考文件,在良晌上线后即被撤下。

但除了公开的撤稿,还有一种更为躲闪的处理风物——“隐形修正”(stealth corrections)也引起了学界警惕。Glynn 与法国图卢兹大学的计较机科学家 Guillaume Cabanac 等东谈主的征询发现,一些出书商在发现已发表论文中存在 AI“指纹”短语后,并未发布隆重的勘误或撤稿声明,而是悄无声气地在后台修改了在线版块,将这些流露性的短语删除。
举例,Toxicology 此前就有一篇论文中的“regenerate response”短语在莫得任何公开诠释的情况下灭绝了。Glynn 和 Cabanac 的征询跟踪到了向上 100 篇资格了此类“千里默的”发表后修改的著作,其中部分修改就与未深远的 AI 使用相关。“这种作念法要挟到科学诚信,”Cabanac 暗示,“透明的记载保存对确保已发阐发实的真正度至关进军。”
在那些如实发布了隆重纠正的案例中,后果相似令东谈主失望。在 11 篇隆重修正的论文中,仅有 1 篇最终妥贴关系期刊的 AI 深远策略。大多数情况下,AI 生成的文本被移除或用括号象征,但并未按条款在正文中添加 AI 使用声明。
面对 AI 时间带来的冲击,如今环球主要的学术出书商和期刊组织大都依然制定或更新了对于在学术出书中使用 AI 的策略指南,可是,就上述这些处理情况来看,这些策略似乎莫得获取有用的实施。
就现时而言,学术界对 AI 使用的依然形成两大基本共鸣:
其一,东谈主工智能不成被列为作家。这是竟然悉数主流机构和期刊(包括外洋医学期刊裁剪委员会 ICMJE、出书伦理委员会 COPE、NatureScienceCellThe LancetJAMA等)的共同立场。情理很明确:AI 无法承担作家所必须承担的包袱,即对征询责任的原创性、准确性和竣工性负责。
其二,使用东谈主工智能援救必须进行深远。大多数出书商条款,若是作家在征询或写稿过程中使用了 AI 器具(尤其是用于生成文本、图像或代码),必须在稿件的特定部分(如设施、致谢、或投稿信中)明确声明,诠释使用了何种器具以及具体用途。
可是,在具体履行层面,各家策略存在各别。Nature杂志条款,若使用大型言语模子,必须在“设施”部分详备诠释,并不容使用 AI 生成的图像(仅有少量数例外)。Science杂志的策略则允许在论文的“设施”章节说后光,方正地接收 AI 制作插图、撰写论文现实,但 AI 自己不成动作作家或合著者。Cell杂志也不容将 AI 列为作家,条款作家在使用 AI 援救时间时需在投稿信和声明部分注明,并对作品的准确性和原创性负全责,未获裁剪明确许可不得使用 AI 生成图像。

与此同期,一些出书商的策略也在得当 AI 器具日益提高的现实。举例,英国物理学会出书社(IOP Publishing)率先条款作家声明 AI 使用,但后续修改了策略,不再强制条款深远,转而更侧重于通过自动化和东谈主工搜检来确保现实的准确性和稳健性(但其策略依然不容使用 AI“创建、更正或主管”征询数据或后果)。Springer Nature也指出,用于改善可读性、立场、语法或拼写不实的“AI 援救文稿裁剪”无需相配声明。IEEE则提出在“致谢”部分深远 AI 生成的悉数现实(文本、图表、图像、代码),但对于常见的裁剪和语法增强用途,深远则为“提出”而非强制。
尽管策略框架日渐廓清,但多数未深远 AI 使用案例的曝光碰巧诠释,现存策略的履行和同业评审经过在有用识别和不断 AI 生成现实方面仍面对高大挑战。正如 Glynn 所指出的,Radiology Case Reports上一篇论文中出现“I am an AI language model”这么直白到不成再直白的句子,竟然能一皆绿灯通过作家、裁剪、审稿东谈主、排版东谈主员等悉数才气的审查,这自己就流露了现存体系的脆弱性。
参考府上:
1.https://www.nature.com/articles/d41586-025-01180-2#ref-CR3
2.https://arxiv.org/abs/2411.15218
3.https://onlinelibrary.wiley.com/doi/10.1002/leap.1650
4.https://retractionwatch.com/2025/04/24/google-ai-engineer-withdraws-arxiv-preprint-tortured-phrases-genai/
排版:溪树