维基百科出台新规:全面限制AI生成内容介入知识生产

维基百科编辑委员会近日发布最新政策调整,明确禁止利用大型语言模型撰写或重写条目内容。此举凸显社区对人工智能生成文本在可追溯性、来源可靠性及内容真实性方面潜在风险的高度警觉。

新规定指出:“大型语言模型输出的内容往往违背维基百科多项核心准则。除特别说明外,严禁以该类工具生成或改写条目。”尽管如此,政策仍保留部分例外场景,例如允许使用AI辅助进行基础语法校正,前提是不引入新信息,且所有建议必须由人工审阅确认。

违规判定与账户管理机制

尽管未明文列出具体惩罚措施,但根据平台披露标准,频繁滥用AI工具将被视为“破坏性编辑行为”,可能触发账号封禁。维基百科同时设立申诉通道,编辑者可通过正式流程申请解封。

官方说明称:“封禁决定可在以下情形撤销:原管理员同意解除、其他管理员认定处罚失当,或经仲裁委员会裁定成功。”华盛顿大学语言学教授埃米莉·本德表示,在特定工具中应用语言模型具有合理性,但需清晰界定“编辑”与“生成”的界限。

她举例指出:“语言模型可用于构建高效拼写检查系统,此类功能属合理范畴;扩展至语法修正亦可接受。”然而,一旦系统开始主动改写语义或生成新段落,其缺乏人类编辑所具备的责任承担机制,便构成根本性缺陷。

AI无法承载责任:知识协作的伦理困境

“大型语言模型生成的内容本质上无责任主体,也不存在信念立场,”本德强调,“人类发言基于个人认知与道德担当,而非抽象真理。这一缺失正是当前技术无法弥补的核心问题。”她警示,若广泛采纳AI代笔,将严重侵蚀维基百科作为公共知识库的公信力。

东北大学传播学副教授约瑟夫·里格尔长期关注维基百科的治理结构,他认为社区反应折射出对信息准确性的深层关切。“维基百科始终坚守可靠来源原则,而人工智能常产生‘幻觉’式主张与虚构引用,这直接威胁内容可信度。”他指出,平台核心政策深刻影响着编辑者对技术工具的态度,尤其值得注意的是,多数大模型均以维基百科数据为训练基础。

授权争议与社区反噬

今年一月,维基媒体基金会与多家科技公司达成协议,允许商业服务大规模调用维基百科内容。里格尔观察到:“尽管许可条款允许使用,但社区成员普遍对某些服务持保留态度——它们无偿获取集体创作成果,却要求用户处理由此衍生的大量低质AI生成内容。”

尽管禁止使用大模型生成条目,维基百科仍开放有限度的翻译支持:允许借助人工智能将非英语版本条目转译为英文,但前提条件是编辑者必须亲自核验原文准确性。政策特别提醒,不应仅凭文风判断是否由AI生成,而应聚焦内容是否符合核心政策及编辑历史记录。

补充说明强调:“个别编辑者的写作风格可能与语言模型输出相似。因此,采取任何处罚措施前,必须超越语言特征,综合评估文本合规性与近期编辑行为模式。”此次政策迭代标志着维基百科在人工智能浪潮中,持续强化其知识生产体系的质量控制与伦理边界。