為了因應由 AI 驅動的兒童性剝削上升的趨勢,OpenAI 於週三公布了一份政策藍圖,概述產業可採取的新增安全措施,以協助遏制使用 AI 來製作兒童性虐待影像材料。
在該框架中,OpenAI 列出了法律、營運(操作)以及技術層面的措施,目標在於強化針對由 AI 驅動的濫用的保護,並提升科技公司與調查人員之間的協調。
「兒童性剝削是數位時代最迫切的挑戰之一,」該公司寫道。 「AI 正在迅速改變這些危害在產業中如何出現,以及如何能在規模化的情況下加以處理。」
OpenAI 表示,該提案納入了來自從事兒童保護與網路安全工作的組織的回饋,包括全國失蹤與受剝削兒童中心(National Center for Missing and Exploited Children)以及檢察總長聯盟(Attorney General Alliance)及其 AI 工作小組。
「生成式 AI 以令人深感不安的方式加速了網路兒童性剝削犯罪——降低門檻、擴大規模,並使新的傷害形式成為可能,」全國失蹤與受剝削兒童中心(National Center for Missing & Exploited Children)總裁兼執行長 Michelle DeLaune 在聲明中表示。 「但同時,全國失蹤與受剝削兒童中心也鼓勵看到像 OpenAI 這樣的公司反思:這些工具應如何自始就以更負責任的方式進行設計,並納入內建的防護措施。」
OpenAI 表示,該框架在 AI 模型內結合了法律標準、產業通報系統與技術防護措施。該公司指出,這些措施旨在協助更早辨識剝削風險,並提升線上平台之間的問責性。
該藍圖指出了行動領域,包括:更新法律以處理由 AI 生成或被篡改的兒童性虐待影像材料;改善線上服務提供者通報濫用訊號並與調查人員協調的方式;以及在設計用於防止濫用的 AI 系統中建立防護措施。
「單一介入無法單獨解決這項挑戰,」該公司寫道。 「此框架將法律、營運(操作)與技術方法整合在一起,以更好地辨識風險、加速回應,並強化問責,同時確保執法機關在技術演進之際仍保持強韌。」
該藍圖發布之際,兒童安全倡議者提出擔憂:具備產生逼真影像能力的生成式 AI 系統可能被用來製作被操弄或合成的未成年人描繪。二月時,UNICEF 呼籲各國政府通過法律,將由 AI 生成的兒童虐待影像材料刑事化。
一月時,歐洲委員會啟動了正式調查,評估 X(此前稱為 Twitter)是否違反歐盟數位規則:原因是其未能阻止該平台的原生 AI 模型 Grok 生成非法內容;同時,英國與澳洲的監管機構也已展開調查。
OpenAI 指出,僅靠法律無法阻止由 AI 生成的濫用影像材料所帶來的禍害,並表示隨著 AI 系統變得更有能力,仍必須有更強的產業標準。
「透過更早打斷剝削企圖、提升送交給執法單位訊號的品質,並強化整個生態系的問責性,本框架旨在在危害發生之前加以預防,並在風險出現時協助確保兒童獲得更迅速的保護,」OpenAI 表示。