🎯
Неделя, которая изменит отношения между технологиями и журналистикой

В октябре 2025 произошли события, которые переформатируют взаимодействие между искусственным интеллектом, издателями и аудиторией. Исследование Би-Би-Си подтвердило серьёзные проблемы с надёжностью умных помощников при работе с новостями. OpenAI представила браузер, чтобы бросить вызов доминированию Google. А Индия создала новый стандарт государственного регулирования синтетических материалов.

Это три критических события, которые нужно понимать каждому, кто работает в медиа или использует искусственный интеллект.

Исследование Би-Би-Си и Европейского вещательного союза: почему умным помощникам нельзя доверять новости

На прошлой неделе Европейская вещательная организация (EBU) и BBC опубликовали самое масштабное международное исследование надёжности умных помощников (ChatGPT, Copilot, Gemini) в работе с новостным контентом. Результаты вызывают серьёзное беспокойство.

⚠️
Цифры, которые говорят сами за себя

45% всех ответов умных помощников содержали минимум одну значительную ошибку

31% ответов показали серьёзные проблемы с указанием источников информации

20% содержали крупные неточности (выдумки системы и устаревшая информация)

Gemini от Google показал худший результат — проблемы обнаружены в 72% ответов

Исследование охватило 22 общественные медиа-организации из 18 стран, было проанализировано 3000 ответов на английском, французском, немецком, испанском, украинском и других языках. Оценивались ChatGPT, Copilot, Gemini и Perplexity.

Что особенно важно: по данным исследования Reuters Digital News Report 2025, уже 7% всех потребителей новостей и 15% молодёжи до 25 лет используют умных помощников для получения информации. Это означает, что сотни миллионов людей получают искажённую информацию прямо сейчас.

Когда люди не уверены, чему доверять, они могут перестать доверять чему-либо вообще, что препятствует демократическому участию.— Жан Филип де Тендер, директор по медиа EBU

Реакция компаний была предсказуемой. OpenAI и Microsoft признали, что «галлюцинации» (когда система искусственного интеллекта генерирует ложную информацию) — это проблема, над которой они работают. Perplexity заявила, что её расширенный режим (Deep Mode) достигает 93.9% точности, но независимые тесты дают совсем другие результаты.

OpenAI запустила браузер ChatGPT Atlas: прямой вызов Google

21 октября OpenAI представила ChatGPT Atlas — полнофункциональный веб-браузер на базе открытого движка Chromium со встроенным ChatGPT. Это не просто дополнение к существующему браузеру. Это прямой вызов 20-летнему доминированию Google.

Atlas доступен для macOS прямо сейчас, версии для Windows, iOS и Android выходят позже. Встроенная боковая панель позволяет общаться с содержимым текущей страницы — не нужно копировать-вставлять текст в отдельный чат. Это решает реальную проблему современных инструментов искусственного интеллекта.

🚀
Почему это имеет значение для издателей

ChatGPT имеет 800 миллионов еженедельных пользователей. Если даже 10% перейдут на Atlas, это 80 миллионов потенциальных потерь посетителей от Google.

В то же время, 93% поисков в режиме с искусственным интеллектом заканчиваются без нажатия на ссылку источника. Издатели уже теряют посетителей.

Фактически, исследования показывают, что люди меньше нажимают на ссылки, когда им показывают краткие сводки от искусственного интеллекта. Apple в суде подтвердила, что количество запросов в поиск впервые упало в апреле 2025 года.

OpenAI позиционирует Atlas как браузер для работы и продуктивности, где контекст важнее прямого доступа к информации. Это честный взгляд на будущее: люди будут общаться с искусственным интеллектом, который будет искать информацию в интернете за них, вместо того чтобы сами переходить по ссылкам.

Индия вводит обязательную маркировку синтетического контента

22 октября министерство электроники и информационных технологий Индии (MeitY) опубликовало проект поправок к закону об информационных технологиях 2021 года (IT Rules 2021). Это первое в индийском законодательстве чёткое определение и регулирование «синтетически созданной информации» — то есть контента, сгенерированного искусственным интеллектом.

Правила простые, но строгие:

  1. Видимая маркировка: весь контент, созданный искусственным интеллектом, должен иметь видимую (водяной знак) или слышимую (голосовое предупреждение) метку
  2. Минимум 10% покрытия: предупреждение должно занимать минимум 10% визуального пространства или начальные 10% звуковой дорожки
  3. Постоянные метаданные: уникальные технические данные встраиваются в файл и не могут быть удалены
  4. Запрет на удаление: инструменты для удаления или изменения меток становятся незаконными
  5. Механизм проверки: если платформа не может проверить подлинность контента, она должна пометить его как «вероятно синтетический»

Это следствие изучения Индией нормативных моделей Китая (которые ввели аналогичные требования в сентябре 2025) и Европейского союза.

💡
Что это значит для издателей и платформ

YouTube, Facebook, Instagram, TikTok, LinkedIn и другие крупные социальные платформы (более 5 миллионов пользователей в Индии) должны будут внедрить автоматическую проверку синтетического контента.

Граждане смогут понять, какая информация создана искусственным интеллектом, ещё до того, как она станет вирусной.

Но остаётся вопрос: как различить текст, сгенерированный искусственным интеллектом? Большинство современных детекторов неточны.

Общественное обсуждение проекта собирается до 6 ноября 2025. Ожидается, что похожие правила будут введены в Евросоюзе и других юрисдикциях в 2026 году.

Цифровые водяные знаки: от инструмента к стандарту

Пока правительства пишут законы, технология уже движется вперёд. Цифровые водяные знаки (встраивание невидимых идентификаторов в контент, созданный искусственным интеллектом) вошли в список 10 ключевых технологий 2025 года по версии Всемирного экономического форума и научного издания Frontiers.

Принцип работы: в процессе создания контента искусственный интеллект незаметно встраивает уникальный паттерн выбора слов, значений пикселей или звукового сигнала. Это невидимо для человека, но обнаруживается специальными инструментами.

Кто внедряет технологию:

  • Google: инструмент SynthID (открыл исходный код в 2024) встроен в Gemini и Google Картинки
  • Meta: VideoSeal для видео, встраиваемые метаданные в Facebook, Instagram и Threads
  • Adobe: система Content Credentials со стандартом C2PA (Coalition for Content Provenance and Authenticity — коалиция за подлинность происхождения контента)
  • IMATAG: специализированная платформа с постоянными водяными знаками, которые сохраняются даже после обрезки и сжатия

Технология водяных знаков совместима с метаданными стандартов IPTC и C2PA, что позволяет стандартизировать проверку контента. Интеграция с блокчейном (распределённой базой данных) может создать полностью прозрачную историю каждого файла.

Google SynthID Text (открытый исходный код)

Использует технологию DeepMind SynthID для встраивания паттернов в текст. Каждое слово выбирается из синонимов, создавая уникальный паттерн, который машина может обнаружить, а человек — нет.

Узнать больше

Издатели переходят на системное лицензирование контента для искусственного интеллекта

Самое интересное в индустрии происходит в моделях лицензирования. Издатели больше не подписывают разовые сделки с OpenAI. Возникают системные рынки лицензий.

Real Simple Licensing (RSL — простое лицензирование на практике) — протокол, запущенный 10 сентября 2025. Позволяет издателям встроить машиночитаемые условия лицензирования прямо в технический файл robots.txt. Разработчик RSS-формата Экарт Вальтер и бывший руководитель поисковика Ask.com Дуг Лидс создали механизм коллективного торга.

Подписали соглашение: Reddit, Yahoo, Quora, Medium, O'Reilly Media, Ziff Davis (CNET, PCMag, Mashable), WebMD и другие. Модели ценообразования:

  • Плата за каждое сканирование (когда бот искусственного интеллекта загружает контент)
  • Плата за упоминание (когда контент появляется в ответе искусственного интеллекта)
  • Подписка (фиксированная плата)
  • Бесплатно с указанием авторства

Но OpenAI, Google, Meta и Anthropic пока не подписали протокол RSL. Это означает, что протокол работает как сигнал коллективного торга, но не как обязательный стандарт.

Рынок контента издателей Microsoft (Publisher Content Marketplace, 24 сентября 2025) — первая двусторонняя платформа, где издатели могут продавать контент напрямую создателям искусственного интеллекта. Первый покупатель — Copilot. Финансовые условия не раскрыты, но это первый шаг компании к позиционированию себя как более дружелюбной к издателям, чем Google.

💰
Цифра, которая объясняет всё

Издатели с договорами лицензирования для искусственного интеллекта получают переходы по ссылкам в 7 раз выше, чем издатели без договоров.

Это происходит потому что, когда ваш контент лицензирован и указан источник, люди чаще нажимают на ссылку источника в ответе искусственного интеллекта.

Dow Jones Factiva (благодаря влиянию Wall Street Journal) к октябрю 2025 подключила 5000 из 30000 издателей в своей сети к лицензированию для искусственного интеллекта. Это открывает возможность получать роялти для малых и средних издателей, которые раньше не имели переговорной силы.

Инструменты проверки подлинности: от теории к практике

Пока издатели подписывают контракты, редакции получают доступ к растущему набору инструментов обнаружения синтетического контента:

Hive AI Deepfake Detection (обнаружение дипфейков от Hive AI): получила финансирование 2.4 миллиона долларов от Министерства обороны США, обнаруживает видео, созданные искусственным интеллектом, с высокой точностью. Уже внедрена в платформы модерации контента.

Sensity AI: точность 95-98%, отслеживает более 9000 источников в реальном времени, обнаружила более 35000 дипфейков за последний год. Используется в государственном и финансовом секторах.

Reality Defender (защитник реальности): получила финансирование 15 миллионов долларов в раунде Series A, финалист конференции по безопасности RSAC 2024. Использует вероятностное обнаружение для выявления манипуляций искусственным интеллектом в видео, аудио и тексте.

Инструмент обнаружения дипфейков YouTube: запущен в октябре 2025 прямо в интерфейс для создателей контента. Позволяет проверять видео на предмет манипуляций с лицами.

Основные методы обнаружения: анализ лица и поведения, аудиокриминалистика (судебная экспертиза звука), распознавание уникальных следов моделей генерации, перекрёстный анализ (соответствие между аудио и движением губ).

Стратегические выводы

Что нужно отслеживать

1. Регулирование синтетического контента — Индия создала прецедент. Евросоюз и другие страны последуют. Компании должны готовиться к обязательной маркировке контента, созданного искусственным интеллектом.

2. Перераспределение посетителей — браузер ChatGPT Atlas может перенаправить миллиарды поисков. Издателям нужны договоры лицензирования для искусственного интеллекта, чтобы оставаться заметными.

3. Надёжность искусственного интеллекта для новостей — исследование Би-Би-Си показало, что умные помощники ненадёжны. Это может разочаровать инвесторов, которые делали ставку на новости, созданные искусственным интеллектом.

4. Водяные знаки как стандарт — от необязательной защиты водяные знаки превращаются в базовый слой цифрового доверия. Те, кто внедрит технологию раньше, получат конкурентное преимущество.

5. Лицензирование через рынки — будущее не в разовых контрактах с OpenAI. Оно в системных платформах-рынках, где издатели могут напрямую продавать контент.

Дополнительные источники

Отчёт EBU о достоверности новостей в умных помощниках 2025

Полный отчёт 22 общественных медиа-организаций о проблемах умных помощников при работе с новостями. На английском языке, формат PDF.

Скачать отчёт

Браузер OpenAI ChatGPT Atlas

Новый браузер OpenAI со встроенным ChatGPT. Доступен для macOS, другие платформы выходят позже.

Скачать браузер

Министерство электроники и информационных технологий — проект постановления (Индия)

Официальный проект поправок к закону об информационных технологиях 2021 от MeitY. Первое в мире чёткое определение и регулирование контента, созданного синтетически. На английском языке, формат PDF.

Читать проект

Источники информации

Материал подготовлен на основе официальных пресс-релизов BBC Media Centre, European Broadcasting Union, OpenAI, Ministry of Electronics and Information Technology (Индия), публикаций в TechCrunch, Reuters, CNN, Digiday, аналитических отчётов EBU News Report 2025, Reuters Digital News Report 2025, а также исследований независимых источников. Данные актуальны на 24 октября 2025 года. Статья распространяется с указанием авторства и ссылкой на источники.