OpenAI запустила Sora 2 с беспрецедентной реалистичностью видео, но быстро столкнулась с волной критики: несанкционированные видео известных людей, нарушения авторского права и опасность распространения дезинформации. За три дня компания переключилась с модели opt-out на opt-in, признав необходимость более строгих гарантий.
Главный вызов — технология развивается быстрее, чем общество может адаптироваться. Эксперты предупреждают: детектирование сфальсифицированного видео отстаёт от совершенствования генерации.
Пока законодатели и платформы ещё обсуждают правила, миллионы пользователей уже экспериментируют с созданием контента — с непредсказуемыми последствиями для медиатруста и аутентичности.
Масштаб проблемы: от хаоса к срочным мерам
Sora 2 вышла 29 сентября 2025 года и практически сразу стала номером один в App Store, но не из-за положительных отзывов. За неделю платформу захлестнула волна инцидентов: видео мёртвого активиста Мартина Лютера Кинга-младшего, произносящего расистские высказывания; несанкционированные видео актёра Брайана Крэнстона; искусственно созданные сцены с персонажами Марвела и Disney.
OpenAI дебютировала с моделью opt-out: правообладатели должны были запросить блокировку своего контента. Это означало, что киностудии, актёрские профсоюзы и музыкальные лейблы начали получать уведомления о нарушениях только после того, как уже были созданы сотни поддельных видео.
Эта стратегия оказалась политической минной ловушкой. Motion Picture Association (МПА) обвинила OpenAI в нарушении хорошо установленного авторского права. Актёрский профсоюз SAG-AFTRA потребовал защиты от дипфейков. Адвокаты развлекательной индустрии начали готовить исковые заявления.
Всего за три дня 3 октября CEO Sam Altman выпустил блог-пост, объявив о переходе на opt-in модель — правообладатели должны будут дать согласие на использование своего контента.
Технология опережает регулирование — и это опасно
Согласно системной карточке безопасности OpenAI, Sora 2 имеет видимый водяной знак на всех выходных видео и встроенные метаданные C2PA (стандартная подпись индустрии для отслеживания происхождения контента). На бумаге это звучит убедительно. На практике — это недостаточно.
Профессор компьютерных наук Джорджтаунского университета Элисса Редмайлс и её коллега Сара Баргал, специалист по компьютерному зрению и глубокому обучению, выразили фундаментальную озабоченность: Sora 2 значительно упростила создание дипфейков.
Когда появился Photoshop, требовались специальные навыки и часы работы. Sora 2 требует две вещи: текстовое описание и несколько секунд ожидания. Любой пользователь может создать видео, которое выглядит так, как будто его создал профессиональный кинооператор. Для киберпреступников это — новая эра.
Баргал отметила, что параллели между опасениями по поводу цифрового редактирования в 1990-х и генеративными видео-инструментами неуместны: «Это действительно радикально отличается. Photoshop требовал экспертизы. Sora 2 требует только текст».
В исследовании, проведённом сотрудниками журнала The National News, специалисты предупредили о трёх основных рисках:
1. Риск для детей и молодых женщин. История показывает, что каждый новый инструмент синтеза видео и изображений быстро становится оружием для создания недопустимого сексуального контента без согласия. Сора 2 снижает техническую планку ещё ниже.
2. Подрыв доверия к видеоконтенту в целом. Несколько десятилетий видео считалось «доказательством» — запись события, которому можно верить. Sora 2 переворачивает это. Вскоре видео станет элементом дезинформации по умолчанию.
3. Отставание регулирования от технологии. Баргал выразила озабоченность: «Я обеспокоена тем, что темп развития социальных наук, политики и других дисциплин не совпадает с темпом развития AI». К тому времени, когда законодатели создадут нормы, проблема может стать неконтролируемой.
Копирайт становится боевым полем
Юридический аспект ещё более сложный. Журналист и аналитик Will Scott указал на фундаментальное противоречие в позиции OpenAI:
OpenAI запустила платформу, которая позволяла пользователям создавать контент с использованием лицензионного материала. После критики компания переключилась на opt-in. Но вопрос остаётся: если эти гарантии были возможны с первого дня, почему их не было изначально?— Will Scott, AI licensing analyst, 2025
Forbes провела более острую критику: OpenAI пошла на стратегический риск, позволив инфракциям в течение трёх дней, чтобы создать ажиотаж, привлечь инвесторов и доказать ценность платформы. После накопления доказательств компания быстро переключилась на защитную позицию.
Соглашение Motion Picture Association (MPA) требует, чтобы OpenAI, а не правообладатели, взяла на себя ответственность за предотвращение нарушений. CEO MPA Чарльз Ривкин подчеркнул: «Хорошо установленное авторское право уже защищает права создателей. Это применимо здесь».
Проблема в том, что opt-in модель не решает проблему в корне: Sora 2 уже была обучена на данных, включая защищённый авторским правом контент. Правообладатель, отказавшийся от использования своей работы в новом контенте, остаётся без контроля над тем, как его интеллектуальная собственность уже повлияла на обучение модели.
Защита личности: от добровольчества к контролю
OpenAI предложила механизм «Cameos» — пользователи могут загружать своё лицо и голос в систему, чтобы управлять тем, как их образ используется. На первый взгляд, это решение. На практике — это перекладывание ответственности на жертв.
Актёр Брайан Крэнстон благодарил OpenAI за политику, но это не отменяет того, что его образ уже был использован без согласия. SAG-AFTRA и профсоюзы актёров теперь работают с OpenAI над расширением защиты, включая сотрудничество с агентствами United Talent Agency (UTA) и Creative Artists Agency (CAA).
Однако Элисса Редмайлс из Джорджтауна подчеркнула главное ограничение текущего подхода: нет прозрачности в том, как OpenAI оценивает «сходство» лиц. Компания не опубликовала ни одного тестирования, ни одного стандарта, по которому система принимает решения.
В интервью журналисту Rowan Cheung Altman сказал: «Я думаю, что общество быстро адаптируется, и мы быстро поймём, что будет много поддельных видео вас в интернете. Это просто произойдёт, поэтому иммунизация общества к этому, вероятно, имеет какую-то ценность».
Другими словами: общество должно привыкнуть к фальшивым видео. Это не план защиты, это признание поражения.
Водяной знак — это пластырь, не лекарство
OpenAI гордится тем, что все видео Sora 2 получают видимый водяной знак (логотип Sora в нижнем правом углу) и встроены метаданные C2PA для отслеживания происхождения.
На практике это забегает вперёд. Водяной знак легко удалить или скрыть при перепостах в социальные сети. Метаданные C2PA часто удаляются при конвертации видео между форматами. К тому же, к дате этого материала (октябрь 2025) уже появились инструменты для удаления водяных знаков Sora 2.
Geneo исследовал пути распространения синтетического видео: поддельное видео высокого качества, загруженное на TikTok или Reddit без водяного знака, получает миллионы просмотров задолго до того, как платформа замечает проблему. К тому времени, когда происходит верификация происхождения, вред уже нанесён — в виде распространённой дезинформации, скомпрометированного доверия или нарушенной репутации.
Что происходит дальше: три сценария
Оптимистичный сценарий: регулирование срабатывает
В течение 6-12 месяцев EU AI Act, развитие федеральной политики в США и международные соглашения вводят обязательные стандарты: провенанс-по-умолчанию (обязательное встраивание метаданных), системы верификации на платформах, штрафы за распространение недекларированного синтетического контента. Инструменты детектирования дипфейков улучшаются и становятся встроенными в браузеры и приложения социальных сетей. Общество адаптируется к скептицизму в отношении видео — это становится новой нормой информационной гигиены.
Реалистичный сценарий: хаос, затем регулирование
В течение 2024-2026 годов количество инцидентов растёт: выборы подвергаются воздействию дипфейков политических кандидатов, корпоративные скандалы раздуваются поддельными видео, киберпреступники запускают кампании вымогательства на основе синтетического контента. После нескольких громких случаев (например, влияния дипфейков на выборы) начинается срочное нормирование. К этому времени уже возникли новые поколения инструментов, которые еще сложнее обнаруживать. Катарсис, а не профилактика.
Пессимистичный сценарий: технология выходит из-под контроля
Открытые модели (фактически, Sora 2 уже во многих регионах достаточно открыта) становятся конкурировать с закрытыми инструментами OpenAI. К 2026 году создание дипфейков вообще не требует регистрации или идентификации. Водяные знаки становятся просто информативными, не обеспечивающими защиту. Доверие к видео как форме доказательства коллапсирует — суды начинают требовать дополнительной верификации, журналистика становится более осторожной. Синтетический контент и реальность сливаются в «постправдовом» ландшафте, где воспринимаемая реальность зависит от источника.
Практические выводы для медиа, платформ и политиков
Специалисты предлагают конкретные шаги для минимизации вреда:
- Для редакций и издателей: внедрить провенанс-первый подход. Перед публикацией видео проверять метаданные C2PA, контактировать с источником для верификации, документировать цепочку обоснованности. Водяной знак — это не гарантия аутентичности.
- Для платформ социальных сетей: требовать видимых меток на синтетическом контенте (не просто в метаданных). Установить временные задержки перед вирусным распространением видео для проверки происхождения. Сотрудничать с исследователями для постоянного совершенствования детектирования дипфейков.
- Для законодателей: установить определение что такое «синтетический контент» и кто несёт ответственность за его пометку. Создать стандарты провенанса, обязательные для всех платформ. Ввести штрафы, достаточно высокие, чтобы служить сдерживающим фактором (но не настолько высокие, чтобы подавить инновации).
- Для компаний AI: публиковать прозрачные стандарты и бенчмарки для защиты личности. Убедиться, что провенанс-данные встроены по умолчанию, а не добавлены после. Сотрудничать с правоохранительными органами для отслеживания преступного использования.
Технология впереди. Общество отстаёт. Компании, платформы и регуляторы реагируют на уже произошедшие кризисы, а не предотвращают их. Pok Sora 2 отправляется в мир, более дюжины фундаментальных вопросов остаются без ответа: Как проверить правдивость видео на новостном портале? Кто несёт юридическую ответственность, если поддельное видео повредит репутацию? Какие международные стандарты должны применяться к синтетическому контенту?
Водяные знаки, метаданные C2PA и opt-in модели — это пластыри. Нужны систематические решения, которые начинаются с прозрачности и ответственности перед человеческим обществом, а не только перед инвесторами.
Узнать больше
OpenAI Sora 2 System Card (официальная документация) — полный технический справочник о гарантиях, методах обнаружения дипфейков и политике лицензирования. Обязательна для журналистов и аналитиков контента.
C2PA (Content Credentials)
Отраслевой стандарт для встраивания метаданных происхождения в медиа. Google Pixel, OpenAI и другие компании активно внедряют. Это будущее верификации контента.
Georgetown Center for Digital Ethics
Исследовательский центр, куда обращаются журналисты и компании для анализа рисков синтетического контента и дипфейков. Ведущие эксперты: Элисса Редмайлс, Сара Баргал.
Сводка практических шагов для читателя: если вы работаете в медиа или на платформе, начните проверку видео с провенанса (не просто от водяного знака). Если вы регулятор, спешите с определением стандартов — время быстро заканчивается. Если вы просто пользователь Sora 2, помните: это инструмент. Как им пользоваться — ваша ответственность.
Источники информации
Материал подготовлен на основе официальных пресс-релизов OpenAI, публикаций в NBC News, CNBC, Forbes, The National News, исследовательских отчётов Georgetown University Center for Digital Ethics и аналитических данных Geneo и Will Scott. Данные актуальны на 29–30 октября 2025 года. Включены мнения экспертов Элиссы Редмайлс, Сары Баргал (Georgetown), CEO Motion Picture Association Чарльза Ривкина и CEO OpenAI Sam Altman.