
為應對由 AI 促成的兒童性剝削日益增加的趨勢,OpenAI 於週三發布了一份政策藍圖,概述了業界可以採取的新的安全措施,以協助遏制 AI 在創建兒童性虐待材料方面的使用。
在此框架中,OpenAI 列出了法律、操作和技術措施,旨在加強防範 AI 促成的虐待行為,並改善科技公司與調查人員之間的協調。
該公司寫道:「兒童性剝削是數位時代最緊迫的挑戰之一。」「AI 正在迅速改變這些危害在整個產業中出現的方式,以及如何大規模地解決這些問題。」
OpenAI 表示,該提案吸取了致力於兒童保護和線上安全的組織的意見,其中包括全國失蹤和受剝削兒童中心 (National Center for Missing and Exploited Children) 以及檢察長聯盟 (Attorney General Alliance) 及其 AI 工作小組。
「生成式 AI 正以令人深感不安的方式加速線上兒童性剝削的犯罪——降低門檻、擴大規模並促成新的危害形式,」全國失蹤和受剝削兒童中心總裁兼執行長 Michelle DeLaune 在一份聲明中表示。「但同時,全國失蹤和受剝削兒童中心也很高興看到像 OpenAI 這樣的公司反思如何更負責任地設計這些工具,從一開始就內建保護措施。」
OpenAI 表示,該框架結合了法律標準、行業報告系統以及 AI 模型內的技術防護措施。該公司稱,這些措施旨在幫助更早地識別剝削風險,並提高線上平台的問責制。
該藍圖確定了行動領域,包括更新法律以應對 AI 生成或篡改的兒童性虐待材料,改善線上服務供應商報告虐待訊號並與調查人員協調的方式,以及在 AI 系統中建立旨在防止濫用的保護措施。
該公司寫道:「沒有任何單一的干預措施可以獨自解決這個挑戰。」「這個框架匯集了法律、操作和技術方法,以更好地識別風險、加速回應並支持問責制,同時確保執法機構在技術發展的同時保持強大。」
此藍圖的發布正值兒童安全倡導者擔心能夠生成逼真圖像的生成式 AI 系統可能被用於創建被操縱或合成的未成年人描繪。今年二月,聯合國兒童基金會呼籲各國政府通過法律,將 AI 生成的兒童虐待材料定為犯罪。
今年一月,歐盟委員會對前身為 Twitter 的 X 平台啟動了正式調查,原因是其未能阻止平台原生的 AI 模型 Grok 生成非法內容,同時英國和澳洲的監管機構也展開了調查。
OpenAI 指出,僅靠法律並不能阻止 AI 生成虐待材料的禍害,隨著 AI 系統能力增強,更強大的行業標準將是必要的。
OpenAI 表示:「透過更早地中斷剝削企圖、提高傳送給執法部門的訊號品質,並加強整個生態系統的問責制,此框架旨在防患於未然,並在風險出現時協助確保兒童能更快獲得保護。」