wikipedia-bans-ai-articles-new-editing-policy
維基百科在新編輯政策下禁止文章使用AI生成文字
這個線上百科全書禁止AI撰寫的內容,但在嚴格規定下允許有限度的AI輔助文字編輯。
2026-03-26 來源:decrypt.co

簡而言之

  • 維基百科現已禁止編輯者使用大型語言模型生成或改寫文章內容。
  • 該政策仍允許有限度地使用人工智慧輔助的潤稿,前提是編輯者需審查變更且未引入新內容。
  • 這項規定反映了人們對人工智慧生成文本中「幻覺」、捏造來源和準確性的日益擔憂。

維基百科的編輯者已採取行動,限制人工智慧在平台上的使用方式,最近的政策更新禁止使用大型語言模型來撰寫或改寫文章。

這項新準則反映了維基百科社群日益增長的擔憂,即人工智慧生成的文本可能與平台的標準相衝突,特別是在可驗證性和可靠來源方面。

該政策更新指出:「大型語言模型生成的文本經常違反維基百科的數項核心內容政策。因此,禁止使用大型語言模型生成或改寫文章內容,但以下所述的例外情況除外。」

該政策仍允許有限度地使用人工智慧工具,包括為編輯者自己的文章提供基本的潤飾建議,前提是系統不引入新資訊。然而,編輯者被建議仔細審查這些建議。

雖然新政策沒有提及使用人工智慧生成內容的懲罰,但根據維基百科關於披露的準則,重複濫用將構成「破壞性編輯模式」,並可能導致封鎖或禁止編輯。維基百科確實為編輯者提供了透過申訴程序恢復帳戶的途徑。

維基百科表示:「封鎖可以經由封鎖管理員同意、其他管理員在封鎖明顯不合理的情況下推翻,或者(在極少數情況下)向仲裁委員會提出申訴來解除。」

維基媒體基金會發言人告訴 Decrypt:「維基媒體基金會不決定維基百科的編輯政策和準則;這是由志願編輯者決定的。維基百科的優勢一直且永遠是其以人為本、志願者驅動的模式。」

華盛頓大學語言學教授艾蜜莉·M·班德(Emily M. Bender)表示,語言模型在編輯工具中的某些用途可能是合理的,但要明確劃分編輯和生成文本之間的界限可能很困難。

班德告訴 Decrypt:「例如,你可以用語言模型做的一件事就是建立一個非常好的拼寫檢查器。我認為,說對編輯進行拼寫檢查是沒問題的,這是合理的。如果你再進一步,進行語法檢查,那也沒問題。」

班德表示,當系統超越語法修正並開始更改或生成內容時,挑戰便隨之而來,她指出大型語言模型缺乏人類貢獻者為協作知識專案帶來的問責性。

她說:「使用大型語言模型來產生合成文本,這些系統的一個基本特性就是缺乏問責制,與某人所相信或支持的事物沒有連結。當我們說話時,我們是基於我們所相信並為之負責的,而不是基於某種客觀的真理概念。而這在大型語言模型中是不存在的。」

班德表示,人工智慧生成編輯內容如果廣泛使用,也可能影響該網站的聲譽。

她說:「如果人們反而走捷徑,製作出看似維基百科編輯或文章的內容並將其放置在那裡,那麼這將降低該網站的整體價值和聲譽。」

東北大學傳播學副教授約瑟夫·里格爾(Joseph Reagle)研究維基百科的文化和治理,他表示,社群的回應反映了對準確性和來源的長期擔憂。

里格爾告訴 Decrypt:「維基百科對人工智慧生成的散文持謹慎態度。他們嚴肅看待可靠來源對某個主題的準確描述。人工智慧在這方面有嚴重的局限性,例如『幻覺』般的主張和捏造的來源。」

里格爾表示,維基百科的核心政策也影響著編輯者看待人工智慧工具的方式,他指出許多大型語言模型都是在維基百科的內容上進行訓練的。去年十月,維基媒體基金會表示,由於搜尋引擎和聊天機器人越來越直接在其平台上提供答案,而不是將用戶導向該網站,導致維基百科的人類訪問量同比下降約 8%。

今年一月,維基媒體基金會宣布與包括微軟、Google、亞馬遜和Meta在內的人工智慧公司達成協議,允許他們透過其企業產品(Enterprise product),一項專為大規模重用其內容而設計的商業服務,使用維基百科的資料。

里格爾說:「雖然維基百科的授權允許使用維基百科內容,但維基人對於那些挪用社群內容,然後對這些社群提出不必要要求以處理隨之而來的大量人工智慧垃圾的服務,仍然存有一些反感。」

儘管禁止使用大型語言模型,維基百科確實允許人工智慧工具將其他語言版本的文章翻譯成英文,前提是編輯者要驗證原文。該政策還警告編輯者不要單純依靠寫作風格來識別人工智慧生成的內容,而是應專注於該材料是否符合維基百科的核心政策以及貢獻者的編輯歷史。

該更新指出:「某些編輯者的寫作風格可能與大型語言模型相似。除了風格或語言標誌之外,還需要更多證據才能證明制裁的合理性,最好是考慮文本是否符合核心內容政策以及相關編輯者最近的編輯活動。」

編者按:本文已在發布後更新,以包含維基媒體基金會的評論。