BBC Research & Development представила RADAR — первую собственную систему детекции модифицированного видеоконтента, построенную на датасете из более чем 1 млн изображений.
Инструмент успешно прошёл экспертную оценку на NeurIPS 2025 и уже используется в BBC Verify для оценки достоверности контента в реальном времени.
Это решение показывает, как медиа-компании перестраивают свои редакции для борьбы с дипфейками и непроверенным AI-контентом.
Что происходит в индустрии прямо сейчас
За последние два года рынок синтетического контента взорвался. Если раньше дипфейки были редкостью, то сейчас детектировать подделки — стало критической необходимостью. Журналисты ежедневно сталкиваются с видео, которые выглядят абсолютно реальными, но полностью сгенерированы искусственным интеллектом.
BBC, один из самых авторитетных медиа-источников в мире, приняла решение не полагаться на внешние решения. Компания разработала свой собственный инструмент — RADAR (Reliable Automatic Detection of Authentic Reference areas, или «Надёжное автоматическое обнаружение подлинных областей»).
Коммерческие решения для детекции дипфейков часто работают как «чёрный ящик» — вы получаете результат, но не знаете, почему система так решила. Для журналистов это неприемлемо. BBC нужно не просто получить ответ «это дипфейк», но и понять, какие именно части видео были изменены.
Внутренняя разработка даёт полный контроль над алгоритмами, данными и объяснениями результатов — это критично при работе с конфиденциальными материалами.
Как работает RADAR: технические детали
BBC R&D создала датасет, который, по их словам, является наибольшим в своём роде. Это не просто 1 млн дипфейков — это специально подготовленные изображения с частичными модификациями. Это важно, потому что в реальной жизни синтетический контент редко изменяет всё изображение целиком. Обычно изменения локальны и смешаны с подлинным контентом.
RADAR использует основные модели компьютерного зрения (foundation models) и комбинирует признаки из разных модальностей изображения. Ключевой инновацией стало использование вспомогательных контрастивных функций потерь (auxiliary contrastive losses), которые позволили системе достичь производительности, сопоставимой или превосходящей лучшие академические модели.
Важный факт: система хорошо обобщается на контент за пределами обучающих данных. Это означает, что RADAR может выявлять синтетическое содержимое, созданное методами, которых не было в исходном датасете — критично для журналистского применения.
| Параметр RADAR | Значение | Статус |
|---|---|---|
| Размер датасета | 1+ млн изображений | ✅ Первый такой в индустрии |
| Архитектура | Foundation models + auxiliary losses | ✅ Лучше существующих решений |
| Обобщаемость | За пределами обучающих данных | ✅ Работает на новых методах |
| Внедрение | BBC Verify, Weather Watchers | ✅ Уже в использовании |
| Бенчмарк | BBC-PAIR с 28 диффузионными моделями | ✅ Открытый ресурс для индустрии |
| Сотрудничество | Oxford, Surrey, Naples, Nvidia, Home Office | ✅ Международный уровень |
BBC создала новый стандартный набор для сравнения (бенчмарк), включающий 28 моделей диффузии. Это позволит академическому сообществу справедливо сравнивать различные инструменты детекции AI-контента.
В добавок, BBC планирует выпустить датасет BBC-PAIR как открытый ресурс, что ускорит развитие всей индустрии.
Где RADAR уже применяется
Система начала работать не в вакууме. BBC Verify — команда специалистов по проверке фактов и верификации контента, созданная в мае 2023 года, — уже тестирует инструмент с реальными журналистами.
Другой пример: Weather Watchers, платформа BBC, где зрители загружают локальные фотографии погоды. RADAR интегрирована с C2PA (Content Authenticity Initiative) для быстрой верификации пользовательского контента перед публикацией. Это позволяет редакторам убедиться в подлинности фото за секунды.
BBC также сотрудничает с BBC Studios для выявления AI-генерируемого контента, отправляемого пользователями, прежде чем он будет показан зрителям или поделен в социальных сетях.
Если детекция неподвижных изображений — уже сложная задача, то выявление поддельных видео — на порядок сложнее. BBC R&D уже начала адаптировать свою модель для работы с видеоданными.
Ключевой инсайт: временные данные (как изображение меняется кадр за кадром) содержат мощные сигналы о подлинности. Команда экспериментирует с тем, как использовать эту информацию для повышения точности.
BBC создаёт специальный видеодатасет для честной оценки против коммерческих решений — методичный и ответственный подход к её разработке.
Почему это имеет значение за пределами BBC
BBC — один из разработчиков, но не единственный. Её подход отражает более широкий тренд: крупные медиа-организации больше не могут полагаться исключительно на внешние инструменты для борьбы с дезинформацией. Им нужны прозрачные, контролируемые и настраиваемые решения.
Это также говорит о растущем понимании, что технология верификации должна быть встроена в процессы редакции, а не применяться постфактум. RADAR не просто даёт ответ — она объясняет, какие части содержимого вызывают подозрение.
BBC R&D тесно сотрудничает с ведущими университетами (Oxford, Surrey, Naples Federico II), с Nvidia, Home Office и другими организациями. Это не просто партнерства — это признание того, что проблема дипфейков слишком велика для одной компании.
Публикация исследования на NeurIPS 2025 означает, что BBC R&D конкурирует на уровне лучших AI-лабораторий мира и влияет на международный научный дискурс о безопасности и аутентичности медиа.
Реалистичные перспективы
Несмотря на успехи, нужно быть честным о ограничениях. Дипфейк-технологии развиваются с высокой скоростью. Сегодняшний детектор может потеряться против завтрашнего генератора. BBC понимает это и строит свой подход как итеративный процесс: постоянное тестирование, обновление моделей, адаптация к новым угрозам.
Кроме того, технология не заменит человеческий критический анализ. Журналист по-прежнему должен проверять источники, искать различные точки зрения, подтверждать факты через независимые каналы. RADAR — это инструмент в арсенале редактора, а не магическая пуля.
В ближайшие 1–3 года ожидать:
- Оптимистичный сценарий: RADAR и подобные инструменты станут стандартом в редакциях. Детекция AI-контента будет встроена в платформы для проверки фактов, социальные сети и системы CMS. Это снизит распространение явно поддельного контента.
- Реалистичный сценарий: Система будет работать хорошо на большинстве случаев, но останутся граничные случаи, которые потребуют человеческой оценки. Дипфейк-технологии продолжат развиваться параллельно с детекцией.
- Пессимистичный сценарий: Враждебные акторы могут обучить собственные системы обхода RADAR, что приведёт к гонке вооружений между генераторами и детекторами синтетического контента.
Узнать больше
BBC Research & Development — RADAR Полная статья о системе детекции с техническими деталями, примерами использования и планами развития.
NeurIPS 2025 Conference Исследование BBC R&D & Oxford University будет представлено на одной из самых престижных конференций по AI (2–7 декабря 2025).
BBC Verify Команда BBC по проверке фактов и верификации контента, где активно используются системы детекции синтетического контента.
C2PA (Content Authenticity Initiative) Открытый стандарт для добавления метаданных о подлинности медиа-контента, с которым интегрируется RADAR.
Практические шаги для редакций
Если вы работаете в медиа-организации и думаете о внедрении подобных технологий, начните с аудита текущих процессов верификации. Определите, какие типы контента вызывают наибольше подозрений, затем пилотируйте инструменты детекции на малых объёмах, и, самое важное, обучите редакционный коллектив работать с такими системами, понимать их ограничения и не полагаться на них слепо.
Источники информации
Материал подготовлен на основе официальной статьи BBC Research & Development «Deepfake Detection for Journalism: How We're Tackling the Problem» (опубликована 4 ноября 2025), исследовательских работ, представленных на NeurIPS 2025, и публикаций BBC R&D о системе RADAR. Данные актуальны на 7 ноября 2025 г.