openai-child-safety-blueprint-ai-exploitation
OpenAI發布兒童安全藍圖以應對AI驅動的剝削問題
OpenAI 的新政策藍圖概述了業界可採取的步驟,以打擊由 AI 驅動的兒童性剝削行為。
2026-04-08 來源:decrypt.co

簡報

  • OpenAI 發布了其「兒童安全藍圖」,以應對由 AI 促成的兒童性剝削。
  • 該框架側重於法律改革、加強報告協調以及將防護措施內建於 AI 系統中。
  • 該提案是在兒童安全團體、檢察長和非營利組織的意見基礎上制定的。

為應對由 AI 促成的兒童性剝削日益增加的趨勢,OpenAI 於週三發布了一份政策藍圖,概述了業界可以採取的新的安全措施,以協助遏制 AI 在創建兒童性虐待材料方面的使用。

在此框架中,OpenAI 列出了法律、操作和技術措施,旨在加強防範 AI 促成的虐待行為,並改善科技公司與調查人員之間的協調。

該公司寫道:「兒童性剝削是數位時代最緊迫的挑戰之一。」「AI 正在迅速改變這些危害在整個產業中出現的方式,以及如何大規模地解決這些問題。」

OpenAI 表示,該提案吸取了致力於兒童保護和線上安全的組織的意見,其中包括全國失蹤和受剝削兒童中心 (National Center for Missing and Exploited Children) 以及檢察長聯盟 (Attorney General Alliance) 及其 AI 工作小組。

「生成式 AI 正以令人深感不安的方式加速線上兒童性剝削的犯罪——降低門檻、擴大規模並促成新的危害形式,」全國失蹤和受剝削兒童中心總裁兼執行長 Michelle DeLaune 在一份聲明中表示。「但同時,全國失蹤和受剝削兒童中心也很高興看到像 OpenAI 這樣的公司反思如何更負責任地設計這些工具,從一開始就內建保護措施。」

OpenAI 表示,該框架結合了法律標準、行業報告系統以及 AI 模型內的技術防護措施。該公司稱,這些措施旨在幫助更早地識別剝削風險,並提高線上平台的問責制。

該藍圖確定了行動領域,包括更新法律以應對 AI 生成或篡改的兒童性虐待材料,改善線上服務供應商報告虐待訊號並與調查人員協調的方式,以及在 AI 系統中建立旨在防止濫用的保護措施。

該公司寫道:「沒有任何單一的干預措施可以獨自解決這個挑戰。」「這個框架匯集了法律、操作和技術方法,以更好地識別風險、加速回應並支持問責制,同時確保執法機構在技術發展的同時保持強大。」

此藍圖的發布正值兒童安全倡導者擔心能夠生成逼真圖像的生成式 AI 系統可能被用於創建被操縱或合成的未成年人描繪。今年二月,聯合國兒童基金會呼籲各國政府通過法律,將 AI 生成的兒童虐待材料定為犯罪。

今年一月,歐盟委員會對前身為 Twitter 的 X 平台啟動了正式調查,原因是其未能阻止平台原生的 AI 模型 Grok 生成非法內容,同時英國和澳洲的監管機構也展開了調查。

OpenAI 指出,僅靠法律並不能阻止 AI 生成虐待材料的禍害,隨著 AI 系統能力增強,更強大的行業標準將是必要的。

OpenAI 表示:「透過更早地中斷剝削企圖、提高傳送給執法部門的訊號品質,並加強整個生態系統的問責制,此框架旨在防患於未然,並在風險出現時協助確保兒童能更快獲得保護。」