Кейт Бланшетт, Том Хэнкс и Джордж Клуни выступили против использования их образов без спроса — не в суде, а через технический стандарт, который заставляет машины читать человеческое согласие. 12 мая 2026 года некоммерческая организация RSL Media, сооснованная Бланшетт, запустила Human Consent Standard — систему, позволяющую любому человеку задать правила использования своей внешности, голоса и творческих работ системами ИИ.
Это не закон, а техническая инфраструктура: сигнал, который ИИ-системы смогут считывать так же, как robots.txt читают поисковые краулеры.
Успех стандарта зависит не от звёздной поддержки, а от того, будут ли платформы и разработчики моделей его соблюдать.
Почему consent стал технической проблемой
Главная идея RSL Media формулируется одной фразой: «AI can't respect rights it can't see» — ИИ не может соблюдать права, которые он не видит.
Человек публикует фото, записывает подкаст, снимается в фильме. Его лицо, голос, образ попадают в интернет. AI-системы сканируют эти данные, обучаются на них, генерируют новые изображения и голосовые дорожки. Согласия никто не спрашивает — не потому что разработчики злонамеренны, а потому что в цифровой среде нет стандартного способа заявить: «это моё лицо, используй только с разрешения».
RSL (Really Simple Licensing) решает именно эту задачу. Первая версия стандарта, RSL 1.0, запущенная в сентябре 2025 года, позволяла владельцам сайтов задавать лицензионные условия для AI-краулеров — по аналогии с robots.txt, но с возможностью указывать коммерческие условия. Её поддержали Reddit, Medium, Quora и Cloudflare.
Human Consent Standard идёт дальше. Он привязывается не к URL, а к самому объекту: фотографии, персонажу, голосу, бренду. Где бы этот объект ни появился — стандарт «путешествует» вместе с ним.
Как это работает
В июне RSL Media запускает публичный реестр Consent ID. Любой желающий — не только знаменитость — сможет верифицировать свою личность и указать разрешения: полный запрет, использование только с оплатой, использование только в некоммерческих целях.
Эти настройки переводятся в машиночитаемый сигнал. AI-системы, которые захотят соблюдать стандарт, будут проверять реестр перед использованием материала. Технически сигнал работает через веб-заголовки и метаданные — так же, как браузеры проверяют SSL-сертификаты.
«Это — первое практическое решение, где люди повсюду, не только публичные фигуры, могут установить контроль над тем, как их работы используются ИИ», — заявила Бланшетт.
Звёздная поддержка — не главное
Список сторонников впечатляет: Хавьер Бардем, Виола Дэвис, Хелен Миррен, Кристен Стюарт, Эмма Томпсон, Стивен Содерберг, а также Creative Artists Agency и Music Artists Coalition. Но реальная сила стандарта не в громких именах, а в технической архитектуре.
Предыдущие попытки решить проблему AI-контента были либо юридическими (законы штатов вроде ELVIS Act в Теннесси, NO FAKES Act на федеральном уровне), либо контрактными (SAG-AFTRA договорилась с голливудскими студиями в 2023 году). Оба подхода работают постфактум: нарушение происходит, потом начинается суд.
Human Consent Standard предлагает превентивную модель — обозначить правила до того, как контент попал в тренировочный набор.
Экономика согласия
За стандартом стоит не только этика, но и деньги. Рынок синтетических медиа — AI-сгенерированных изображений, видео и голоса — по оценкам Bloomberg Intelligence, достигнет $280 млрд к 2032 году. Из них значительная доля придётся на коммерческое использование изображений реальных людей.
Уже сейчас существуют платформы вроде TwinTone, которые позволяют создавать и лицензировать AI-двойников. Created By Humans — стартап основателя Scribd — строит рынок лицензирования контента для AI-тренировки. Twinnin привлёк $3M на цифровых двойников актёров.
Проблема в том, что все эти платформы работают изолированно. У каждой — свой реестр, свои условия, свой формат. Human Consent Standard претендует на роль универсального протокола — как HTTP для веба или SMTP для почты.
Без такого протокола рынок лицензирования образов останется фрагментированным. Актрисе из Бразилии придётся регистрироваться в пяти разных системах, чтобы защитить свои права на разных платформах. С единым стандартом достаточно одной регистрации.
Глобальный контекст: от Мексики до Китая
Human Consent Standard появляется не в вакууме — за последние 18 месяцев регуляторы по всему миру начали заполнять правовой вакуум вокруг AI и человеческого образа.
Мексика в апреле 2026 года приняла закон, запрещающий использование AI в дубляже — голоса актёров дубляжа получили федеральную защиту. В Бразилии актёры озвучки лоббируют аналогичные поправки в национальный AI-билль. Южная Корея рассматривает законопроект, защищающий голоса всех граждан от несанкционированного AI-клонирования.
Китай в декабре 2025 года опубликовал проект регулирования AI-сервисов, симулирующих человеческую личность и эмоции — под контроль попадают AI-компаньоны, виртуальные айдолы и синтетические ведущие.
В США федерального закона о праве на публичное использование изображения нет — он регулируется на уровне штатов. ELVIS Act в Теннесси стал первым, распространившим защиту на AI-клоны голоса. Нью-Йорк в январе 2026 года принял два закона: один требует маркировки синтетических исполнителей в рекламе, другой расширяет посмертную защиту цифровых реплик. NO FAKES Act на федеральном уровне остаётся в подвешенном состоянии.
RSL Media предлагает не замену регулированию, а инфраструктуру, которая может объединить разрозненные юрисдикции под единым техническим форматом.
Что этому предшествовало
2023 год стал переломным: забастовка SAG-AFTRA длилась 118 дней, и одним из ключевых требований была защита от ИИ. Профсоюз добился права актёров утверждать использование их цифровых копий, но соглашение касалось только участников гильдии и только голливудских студий.
С тех пор напряжение только росло. В апреле 2026 года Мексика приняла закон, запрещающий использование ИИ в дубляже — голоса актёров дубляжа защищены на уровне федерального закона. В Бразилии, Южной Корее и Китае актёры озвучки создают коллективы и публикуют манифесты против AI-клонирования.
В США ситуация сложнее. Федерального закона о праве на публичное использование изображения (right of publicity) нет — он регулируется на уровне штатов. ELVIS Act в Теннесси стал первым законом, распространившим защиту на AI-клоны голоса. Нью-Йорк в январе 2026 года принял два закона: один требует маркировки синтетических исполнителей в рекламе, другой расширяет посмертную защиту цифровых реплик.
Как мы писали в мае, платформа Twinnin привлекла $3M на создание цифровых двойников актёров — стартапы уже строят инфраструктуру для торговли образами, а стандарты только появляются.
Проблема соблюдения
Главный вопрос: кто будет следить за выполнением? Human Consent Standard — это техническая спецификация, а не закон. Её эффективность зависит от того, внедрят ли её крупные платформы и разработчики моделей.
Аналогия с robots.txt здесь работает лишь отчасти. robots.txt соблюдается поисковыми системами добровольно — потому что Google и Bing хотят индексировать сайты и уважают правила владельцев. В случае с AI-тренировкой стимулы другие: многие компании уже собрали огромные датасеты до появления стандарта, и добровольный отказ от части данных не в их коммерческих интересах.
Рынок AI-генерации контента, по разным оценкам, вырастет до $200+ млрд к 2030 году. Добровольные стандарты в таких масштабах редко работают без регуляторного давления.
Что дальше
RSL Media анонсировала, что реестр заработает в июне. Параллельно организация будет предлагать стандарт крупным AI-компаниям и платформам для интеграции. Если хотя бы несколько ключевых игроков — OpenAI, Google, Meta — внедрят поддержку Human Consent Standard, инфраструктура согласия станет де-факто стандартом индустрии.
Если нет — Human Consent Standard останется благородной инициативой, которую обходят через арбитраж и юрисдикции.
Удастся ли RSL Media сделать consent машиночитаемым стандартом индустрии?
Вероятность: 55% — после ELVIS Act, законов Нью-Йорка и мексиканского прецедента регуляторное давление нарастает. Стандарт даёт компаниям готовую инфраструктуру комплаенса.
✅ Аргументы за
Создатели стандарта — те же люди, что сделали RSS: Эккарт Вальтер был соавтором RSS и сооснователем RSL Collective. У них опыт создания де-факто стандартов. Критерии подтверждения: хотя бы одна из Big Five AI-компаний (OpenAI, Google, Meta, Anthropic, Microsoft) объявит о поддержке Human Consent Standard до конца 2026 года.
❌ Аргументы против
Добровольные стандарты без юридической обязанности редко работают на рынке с высокой маржой. OpenAI платит за контентные сделки отдельно — и не заинтересована в универсальной инфраструктуре учёта. Критерии опровержения: к июню 2027 года ни одна топ-5 AI-компания не внедрила поддержку стандарта на уровне продуктов.
Сценарии развития
🟢 Оптимистичный сценарий (20%)
Human Consent Standard становится обязательным требованием при госзакупках AI-решений в ЕС и отдельных штатах США. Платформы внедряют проверку Consent ID как стандартную функцию модерации контента. Последствия: формируется рынок лицензирования образов для AI с прозрачной ценой и понятными правилами.
🟡 Базовый сценарий (55%)
Стандарт принимают нишевые платформы и AI-стартапы, работающие с контентом. Крупные игроки продолжают двусторонние сделки. Consent ID используется в основном знаменитостями и крупными правообладателями. Последствия: фрагментация — технический стандарт есть, но рынок лицензирования остаётся кулуарным.
🔴 Пессимистичный сценарий (25%)
AI-компании игнорируют стандарт. Суды завалены исками о нарушении прав на изображение. Конгресс США не принимает NO FAKES Act. Регуляторная fragmentation на уровне штатов усложняет соблюдение. Последствия: контент для AI-тренировки уходит в офшорные юрисдикции, контроль становится иллюзией.
Интеграция Human Consent Standard хотя бы одной AI-компанией из топ-5 до конца 2026 года
Принятие NO FAKES Act в США — индикатор федерального регуляторного тренда
Запуск публичного реестра Consent ID в июне 2026 — число регистраций покажет реальный спрос
Реакция ЕС: включение стандарта в AI Act compliance framework
Главный новостной источник по теме — первое крупное СМИ, опубликовавшее детали стандарта
Важен для понимания, как стандарт повлияет на музыкальную индустрию — не только кино
Лучший источник по технической реализации — для тех, кто хочет понять, как именно работает машиночитаемое согласие