Изображения, созданные искусственным интеллектом, меняют творческие индустрии, журналистику и цифровую коммуникацию. Поскольку эти инструменты становятся все более доступными, обеспечение подлинности визуального контента становится первостепенной задачей. OpenAI, лидер в области исследований и внедрения ИИ, стал пионером в разработке множества стратегий для обнаружения и маркировки изображений, созданных его генеративными моделями. В этой статье рассматриваются механизмы, которые OpenAI использует для идентификации изображений, созданных ИИ, опираясь на последние разработки в области водяных знаков, стандартов метаданных, происхождения контента и новых исследований в области обнаружения.
Зачем распознавать изображения, созданные с помощью ИИ?
Распространение генераторов изображений на основе ИИ создает риски, начиная от распространения дезинформации и дипфейков и заканчивая несанкционированным подражанием работам художников. Обнаружение изображений, созданных с помощью ИИ, помогает новостным организациям проверять источники, защищать права интеллектуальной собственности и поддерживать общественное доверие к цифровым медиа. Кроме того, четкая маркировка позволяет платформам и пользователям применять соответствующие политики модерации и протоколы авторских прав. Без надежных методов обнаружения сфабрикованные изображения могут влиять на выборы, манипулировать общественным мнением или нарушать авторские права на творчество с небольшими возможностями для жертв.
Как OpenAI реализует обнаружение на основе водяных знаков?
OpenAI начала тестировать видимые и невидимые водяные знаки специально для изображений, созданных с помощью своего «омнимодального» генератора GPT-4o. Для пользователей бесплатного уровня ChatGPT изображения могут содержать едва заметный видимый водяной знак — узорчатое наложение или угловой тег — указывающий на происхождение AI. Эти водяные знаки можно программно обнаружить путем сканирования встроенного узора. Платные подписчики, напротив, часто получают изображения без водяных знаков, но они все равно включают невидимые подписи в пиксельных данных или метаданных.
Внедрение водяных знаков и обучение классификатора
Процесс внедрения водяного знака происходит после генерации. Во время обучения классификационная сеть учится распознавать сигналы водяного знака — будь то видимые наложения или возмущения амплитуды пикселей — и соответствующим образом помечает изображения. Совместно обучая вставку водяного знака и детектор, OpenAI обеспечивает высокую точность обнаружения, сохраняя при этом визуальные артефакты минимальными. Ранние тесты показывают уровень обнаружения выше 95% для изображений с водяными знаками, с почти нулевым количеством ложных срабатываний на немодифицированных фотографиях людей.
Ограничения подходов на основе водяных знаков
Водяные знаки можно удалить или повредить с помощью простых операций редактирования изображений — обрезки, сжатия или корректировки цвета. Исследования показывают, что враждебные возмущения, составляющие всего 1% интенсивности пикселей, могут обойти детекторы водяных знаков без заметной визуальной разницы, что подчеркивает гонку вооружений между защитниками водяных знаков и нападающими, использующими уклонение.
Как OpenAI использует метаданные C2PA для определения происхождения?
Помимо видимых водяных знаков, OpenAI встраивает метаданные происхождения, соответствующие фреймворку Coalition for Content Provenance and Authenticity (C2PA). Эти метаданные — структурированная запись, включающая версию модели, временную метку генерации и атрибуцию пользователя — криптографически подписаны для предотвращения подделки.
Процесс внедрения и проверки
При экспорте изображения API OpenAI прикрепляет манифест C2PA в заголовке или sidecar файла. Этот манифест содержит:
- Идентификатор модели (например,
gpt-4o-image-1) - Параметры генерации (текст подсказки, начальные значения)
- Метка времени и идентификатор пользователя
- Цифровая подпись из закрытого ключа OpenAI
Инструменты проверки — встроенные в платформы контента или доступные как утилиты с открытым исходным кодом — используют открытый ключ OpenAI для подтверждения подписи и чтения манифеста. Если метаданные отсутствуют или подпись недействительна, изображение может быть помечено как неаутентифицированное.

Преимущества перед видимыми водяными знаками
Метаданные устойчивы к простым манипуляциям с изображениями: обрезка или цветокоррекция обычно сохраняют заголовки файлов. Более того, метаданные обеспечивают более богатый набор данных для отслеживания происхождения — платформы могут отслеживать полный жизненный цикл изображения, приписывая как создание, так и последующие изменения. В отличие от видимых водяных знаков, метаданные остаются невидимыми для конечных пользователей, сохраняя эстетическую целостность.
Может ли ChatGPT самостоятельно обнаруживать рисунки, созданные искусственным интеллектом?
Какую точность обеспечивает ChatGPT при обнаружении синтетических визуальных артефактов?
Исследование 2024 года из Университета Буффало оценило способность ChatGPT обнаруживать изображения, сгенерированные ИИ (из моделей скрытой диффузии и StyleGAN). Благодаря тщательно продуманным подсказкам ChatGPT помечал синтетические артефакты с точностью 79.5% на изображениях, сгенерированных диффузией, и 77.2% на выходах StyleGAN — производительность, сопоставимая с ранними специализированными детекторами deepfake.
Как следует разрабатывать подсказки для оптимального обнаружения?
Лучшие практики предлагают включать четкие инструкции для анализа геометрической согласованности, освещения и неровностей текстуры. Например:
«Изучите изображение на предмет непоследовательных углов теней, повторяющихся текстурных узоров и неестественного сглаживания краев. Определите, указывают ли эти признаки на происхождение модели диффузии».
Такое явное руководство помогает направить внимание модели на криминалистические сигналы, а не на поверхностную семантику.
Существуют ли также пассивные механизмы обнаружения?
В то время как системы водяных знаков и метаданных OpenAI являются проактивными, пассивное обнаружение анализирует присущие артефакты в изображениях, созданных ИИ, — статистические нарушения в шаблонах шума, несоответствия текстур или следы сжатия, оставленные моделями диффузии.
Классификаторы на основе артефактов
Независимое исследование показало, что генераторы на основе диффузии создают тонкие сигнатуры в частотной области. Пассивные детекторы используют сверточные нейронные сети, обученные на больших наборах данных реальных изображений по сравнению с изображениями ИИ, чтобы обнаружить эти артефакты. Хотя OpenAI публично не описывала какой-либо запатентованный пассивный детектор, компания сотрудничает с академическими группами для оценки таких методов для маркировки изображений без водяных знаков.
Интеграция с модерационными конвейерами
Пассивные детекторы могут быть интегрированы в рабочие процессы модерации контента: изображения без метаданных C2PA или видимых водяных знаков дополнительно проверяются классификаторами артефактов. Этот многоуровневый подход снижает зависимость от какого-либо одного метода и смягчает тактику уклонения, которая удаляет или изменяет водяные знаки.
Какие меры предосторожности существуют для предотвращения неправомерного использования?
Конвейер генерации изображений OpenAI регулируется ограничениями политики контента. К ним относятся:
- Оперативная фильтрация: Блокировать запросы на запрещенный контент (подделки реальных людей, незаконная деятельность).
- Контекстные проверки: Предотвращение создания вредоносных или пропагандирующих ненависть образов.
- Обеспечение соблюдения водяных знаков: Обеспечение наличия на всех бесплатных изображениях обнаруживаемых меток.
- Пользовательские отчеты: Разрешение платформам отмечать подозрительные изображения для ручной проверки.
В совокупности эти меры безопасности образуют стратегию глубокоэшелонированной защиты, сочетающую техническое обнаружение с политикой и человеческим надзором.
Какие проблемы остаются в обнаружении и проверке?
Несмотря на эти достижения, сохраняются некоторые препятствия:
Состязательное удаление и уклонение
Сложные субъекты могут использовать атаки на основе ИИ, чтобы удалить или исказить водяные знаки и метаданные, или применять состязательные фильтры, которые обманывают пассивные детекторы. Необходимы постоянные исследования для усиления алгоритмов водяных знаков и переобучения классификаторов против новых векторов атак.
Межплатформенная совместимость
Для того чтобы метаданные происхождения были эффективными, широкая экосистема платформ — социальные сети, новостные агентства, графические редакторы — должна принять стандарты C2PA и соблюдать подписи. OpenAI активно участвует в отраслевых консорциумах для продвижения стандартизации, но всеобщее внедрение займет время.
Баланс между конфиденциальностью и прозрачностью
Встраивание подробных подсказок или идентификаторов пользователей поднимает вопросы конфиденциальности. OpenAI должен тщательно разрабатывать схемы метаданных, чтобы сохранить происхождение, не раскрывая конфиденциальные персональные данные.
В каких направлениях будут развиваться дальнейшие усилия по обнаружению?
OpenAI и более широкое исследовательское сообщество изучают:
- Адаптивные водяные знаки: Динамические водяные знаки для каждого изображения, которые меняют рисунок в зависимости от содержимого, что усложняет удаление.
- Объединенные сети обнаружения: общие анонимные журналы обнаруженных ИИ-изображений для улучшения классификаторов без раскрытия личных данных.
- Объяснимые детекторы: Инструменты, которые не только помечают изображения, созданные ИИ, но и выделяют области или особенности, наиболее характерные для создания, помогая человеку просматривать их.
- Происхождение на основе блокчейна: Неизменяемые реестры, связывающие метаданные с записями в цепочке для улучшения возможности аудита.
Заключение
Обнаружение изображений, созданных ИИ, — это развивающаяся задача, требующая сочетания проактивного водяного знака, надежного происхождения метаданных и пассивного анализа артефактов. Многоуровневый подход OpenAI — видимые водяные знаки для бесплатных пользователей, метаданные C2PA для всех изображений и сотрудничество в исследовании пассивного обнаружения — закладывает прочную основу. Тем не менее, игра в кошки-мышки с обходом водяных знаков и состязательной атакой означает, что постоянные инновации имеют важное значение. Развивая технологию обнаружения, одновременно содействуя отраслевым стандартам и этическим нормам, OpenAI стремится защитить целостность визуальных медиа в мире, управляемом ИИ.
Первые шаги
CometAPI предоставляет унифицированный интерфейс REST, который объединяет сотни моделей ИИ, включая семейство ChatGPT, в единой конечной точке со встроенным управлением ключами API, квотами использования и панелями выставления счетов. Вместо жонглирования несколькими URL-адресами поставщиков и учетными данными.
Разработчики могут получить доступ API GPT-image-1 (API изображений GPT‑4o, название модели: gpt-image-1) и расширение API в середине путичерез CometAPI. Для начала изучите возможности модели на игровой площадке и обратитесь к API-руководство для получения подробных инструкций. Обратите внимание, что некоторым разработчикам может потребоваться проверить свою организацию перед использованием модели.
