摘要:ArXiv宣布新规,对提交未经审阅的AI生成内容论文的作者实施为期一年的投稿禁令。政策强调研究者对成果负最终责任,旨在维护科学知识库的可信度。

币圈界报道:
ArXiv强化审查机制:未核查AI内容将触发一年禁投
开源预印本平台ArXiv正式推出新规定,若发现作者提交的论文中存在明显未经人工验证的AI生成痕迹,将面临长达一年的投稿限制。该举措由计算机科学领域主席托马斯·迪特里希于本周四公布,意在遏制低质生成内容对学术信任体系的侵蚀。
违规行为界定与处罚流程明确化
根据更新后的规则,一旦审核团队识别出作者在发布前未对大语言模型输出进行实质性校验的充分证据,相关稿件将被直接拒稿,并启动为期一年的禁投程序。禁期结束后,作者须在经同行评审的权威期刊上成功发表新成果,方可重新申请投稿。
迪特里希强调,判定依据包括虚构参考文献、无逻辑关联的引用堆砌,以及直接复制粘贴模型生成的错误语句等典型迹象。该政策并非禁止使用AI工具,而是要求研究者对所有内容承担完整责任,涵盖潜在的抄袭风险、偏见表达及事实性错误。
捍卫学术可信度的制度性努力
作为全球重要的科研成果速递门户,ArXiv长期在计算机科学、数学和物理等领域发挥关键作用。然而,生成式AI的广泛应用导致大量缺乏人工监督的投稿涌入。近期一项同行评审分析指出,生物医学领域中虚假引文现象呈上升趋势,很可能与模型误用有关。
通过推行“首次违规即受罚”的机制,ArXiv力求巩固其知识库的可靠性。同时设立申诉通道,允许作者针对裁决提出异议。所有问题需先由审核员标记,再由各领域主席复核证据有效性后决定是否执行处罚。
推动学术范式转型的关键一步
此政策反映出学界日益统一的认知:AI应作为辅助工具而非替代研究核心判断。自康奈尔大学移交管理权以来,ArXiv已转为独立非营利实体,具备更强的自主调整能力。平台此前已实施多项防控措施,如要求首次投稿者提供学术机构背书。
对研究人员而言,核心原则清晰可辨——允许利用AI协助语言润色或初稿起草,但严禁在未完成事实核查与引证核实的情况下提交成果。这一标准与主流科学出版体系中的问责机制高度一致。
政策意义与未来展望
在人工智能深度嵌入科研流程的背景下,ArXiv的新规被视为保障预印本生态健康的重要里程碑。通过对未审阅AI产出施加惩戒,平台重申了“研究者是成果唯一责任人”的基本原则。随着技术持续演进,此类防护机制或将逐步成为学术出版领域的普遍规范。
常见疑问解析
问:是否全面禁止论文写作中使用AI?答:否。允许合理运用AI辅助创作,但禁止提交包含捏造文献、逻辑断裂或明显错误内容的稿件。
问:如何认定“滥用AI的明确证据”?答:主要表现为虚构参考文献、引用不存在的文献来源,或直接复制模型输出的不连贯文本。
问:能否对禁令提出异议?答:可以。政策设有申诉机制,审核人员需先标注问题,经领域主席确认证据后,作者有权依法提出申诉。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
