OpenAI 如何偵測 AI 產生的影像?

CometAPI
AnnaMay 16, 2025
OpenAI 如何偵測 AI 產生的影像?

人工智慧生成的影像正在重塑創意產業、新聞業和數位通訊。隨著這些工具變得越來越容易獲得,確保視覺內容的真實性已成為首要關注的問題。 OpenAI 是人工智慧研究和部署領域的領導者,它率先採用了多種策略來偵測和標記其生成模型產生的圖像。本文探討了 OpenAI 用於識別 AI 生成影像的機制,並借鑒了水印、元資料標準、內容來源和新興檢測研究的最新進展。

為什麼要檢測 AI 生成的圖像?

人工智慧圖像生成器的激增帶來了一系列風險,從傳播錯誤訊息和深度偽造到未經授權模仿藝術家的作品。檢測人工智慧產生的圖像有助於新聞機構驗證來源、保護智慧財產權並維護公眾對數位媒體的信任。此外,清晰的標籤使平台和使用者能夠應用適當的審核政策和版權協議。如果沒有強大的檢測方法,偽造的圖像可能會影響選舉、操縱輿論或侵犯創作版權,而受害者幾乎無力追索。

OpenAI如何實現基於浮水印的檢測?

OpenAI 已開始測試可見和不可見浮水印,特別是針對透過其 GPT-4o「全模態」產生器所建立的影像。對於免費版 ChatGPT 用戶,圖像可能帶有微妙的可見浮水印(圖案覆蓋或角落標籤),表明其來自 AI。可以透過掃描嵌入的模式以程式方式檢測這些水印。相較之下,付費用戶通常會收到無浮水印的影像,但這些影像的像素資料或元資料中仍包含不可見的簽章。

水印注入和分類器訓練

水印嵌入過程發生在生成之後。在訓練期間,分類器網路學習識別浮水印訊號(無論是可見的覆蓋範圍還是像素幅度的擾動),並相應地標記影像。透過共同訓練水印插入器和檢測器,OpenAI 確保了高檢測精度,同時將視覺偽影保持在最低限度。早期測試表明,對帶有浮水印的圖像的檢測率高於 95%,而對未經修改的人體照片的誤報率接近零。

基於水印的方法的局限性

可以透過簡單的影像編輯(裁切、壓縮或色彩調整)刪除或破壞浮水印。研究表明,小至像素強度 1% 的對抗性擾動就可以逃避水印偵測器,而不會產生明顯的視覺差異,這凸顯了水印防御者和逃避攻擊者之間的軍備競賽。

OpenAI 如何利用 C2PA 元資料來找出出處?

除了可見的浮水印之外,OpenAI 還嵌入了符合內容來源和真實性聯盟 (C2PA) 框架的來源元資料。此元資料(包括模型版本、產生時間戳記和使用者歸屬的結構化記錄)經過加密簽章以防止篡改。

嵌入和驗證過程

匯出影像時,OpenAI 的 API 會在檔案的標題或側邊欄中附加一個 C2PA 清單。此清單包含:

  • 模型標識符 (例如, gpt-4o-image-1)
  • 產生參數 (提示文本,種子值)
  • 時間戳和用戶ID
  • 電子簽名 來自 OpenAI 的私鑰

驗證工具(內建於內容平台或作為開源實用程式提供)使用 OpenAI 的公鑰來確認簽名並讀取清單。如果元資料缺失或簽章無效,則影像可能會被標記為未經身份驗證。

OpenAI

優於可見浮水印

元資料對於簡單的影像操作具有很強的穩健性:裁切或色彩分級通常會保留檔案頭。此外,元資料為來源追蹤提供了更豐富的資料集——平台可以追蹤影像的整個生命週期,包括建立和後續編輯。與可見水印不同,元資料對於最終用戶是不可見的,從而保持了美觀的完整性。

ChatGPT 本身可以偵測 AI 產生的繪圖嗎?

ChatGPT 在辨識合成視覺偽影方面達到了什麼樣的準確度?

布法羅大學 2024 年的一項研究評估了 ChatGPT 檢測 AI 生成影像(來自潛在擴散和 StyleGAN 模型)的能力。透過精心設計的提示,ChatGPT 在擴散生成的圖像上以 79.5% 的準確率標記合成偽造品,在 StyleGAN 輸出上以 77.2% 的準確率標記合成偽造品——其性能可與早期專門的深度偽造檢測器相媲美。

應如何設計提示以實現最佳檢測?

最佳實踐建議包括清晰的說明來分析幾何一致性、光照和紋理不規則性。例如:

檢查影像中是否存在不一致的陰影角度、重複的紋理圖案以及不自然的邊緣平滑。確定這些跡像是否表示存在擴散模型。
這種明確的指導有助於引導模型的注意力轉向法醫線索而不是表面語義。

是否還有被動檢測機制?

雖然 OpenAI 的浮水印和元資料系統是主動的,但被動偵測會分析 AI 產生的影像中固有的偽影——雜訊模式中的統計不規則性、紋理不一致或擴散模型留下的壓縮足跡。

基於工件的分類器

獨立研究表明,基於擴散的發生器會產生微妙的頻域特徵。被動探測器使用在大量真實與人工智慧影像資料集上訓練的捲積神經網路來發現這些偽影。儘管 OpenAI 尚未公開詳細介紹任何專有的被動偵測器,但該公司與學術團隊合作評估此類標記無浮水印影像的方法。

與審核管道集成

被動偵測器可以整合到內容審核工作流程中:沒有 C2PA 元資料或可見水印的影像將由工件分類器進一步審查。這種多層次的方法減少了對任何單一方法的依賴,並減輕了刪除或更改浮水印的逃避策略。

有哪些保障措施可以防止濫用?

OpenAI 的圖像生成管道受內容策略護欄的約束。這些包括:

  1. 提示過濾:阻止對不允許的內容的請求(真實人物的深度偽造、非法活動)。
  2. 上下文檢查:防止產生有害或傳播仇恨的圖像。
  3. 水印強制執行:確保所有免費圖層影像都帶有可偵測的標記。
  4. 使用者報告:允許平台標記可疑圖像以供手動審查。

這些保護措施共同構成了縱深防禦策略,將技術檢測與政策和人工監督相結合。

檢測和驗證方面還存在哪些挑戰?

儘管取得了這些進展,但仍存在一些障礙:

對抗性移除與規避

老練的參與者可以部署基於人工智慧的攻擊來剝離或扭曲浮水印和元數據,或應用欺騙被動偵測器的對抗過濾器。需要持續研究來強化水印演算法並重新訓練分類器以抵禦新的攻擊媒介。

跨平台互通性

為了使出處元資料有效,廣泛的​​平台生態系統(社交網路、新聞媒體、圖形編輯器)必須採用 C2PA 標準並尊重簽名。 OpenAI 積極參與產業聯盟以推動標準化,但普遍採用仍需要時間。

平衡隱私和透明度

嵌入詳細的提示或使用者識別碼會引起隱私問題。 OpenAI 必須精心設計元資料模式,以保留來源而不暴露敏感的個人資料。

未來的檢測工作將朝哪些方向發展?

OpenAI 和更廣泛的研究社群正在探索:

  • 自適應浮水印:動態的、每個影像的浮水印會根據內容改變圖案,使刪除變得更加複雜。
  • 聯邦偵測網絡:共享、匿名偵測到的 AI 影像日誌,以改善分類器而不洩露私人資料。
  • 可解釋的探測器:這些工具不僅可以標記 AI 生成的圖像,還可以突出顯示最能表明生成的區域或特徵,從而幫助手動審查。
  • 基於區塊鏈的出處:不可變的分類帳將元資料連結到鏈上記錄,以增強可審計性。

結論

偵測人工智慧產生的影像是一項不斷發展的挑戰,需要結合主動浮水印、強大的元資料來源和被動工件分析。 OpenAI 的多層次方法——為免費用戶提供可見的浮水印、為所有圖像提供 C2PA 元數據以及在被動檢測研究方面的合作——奠定了堅實的基礎。然而,水印逃避和對抗性攻擊的貓捉老鼠遊戲意味著不斷創新至關重要。 OpenAI 旨在透過推進檢測技術並促進行業標準和道德準則,維護人工智慧驅動的世界中視覺媒體的完整性。

入門

CometAPI 提供了一個統一的 REST 接口,該接口在一致的端點下聚合了數百個 AI 模型(包括 ChatGPT 系列),並具有內建的 API 金鑰管理、使用配額和計費儀表板。而不需要處理多個供應商 URL 和憑證。

開發人員可以訪問 GPT-image-1 API  (GPT‑4o 影像 API,型號名稱: gpt-image-1) and Midjourney API通過 彗星API。首先,在 Playground 中探索模型的功能,並查閱 API指南 以獲得詳細說明。請注意,一些開發人員可能需要在使用該模型之前驗證他們的組織。

閱讀更多

一個 API 中超過 500 個模型

最高 20% 折扣