ИИ-ассистенты искажают новости в 45% случаев: исследование EBU и BBC

Международное исследование 22 вещателей обнаружило критические ошибки в 45% ответов ИИ-ассистентов на новостные запросы. Gemini показал худшие результаты с 76% проблемных ответов. EBU предупреждает о рисках для демократии.

🎯
Кризис доверия к ИИ-помощникам

Крупнейшее международное исследование 22 публичных вещателей выявило системные ошибки в работе ChatGPT, Copilot, Gemini и Perplexity при обработке новостного контента: 45% ответов содержат значимые искажения, 31% — проблемы с атрибуцией источников.

Gemini показал худший результат: 76% ответов имели критические недостатки, более чем в два раза превышая показатели конкурентов, главным образом из-за отсутствия корректных ссылок на источники.

Reuters Institute фиксирует рост использования ИИ-ассистентов для потребления новостей: 7% всех онлайн-пользователей и 15% аудитории до 25 лет полагаются на эти инструменты, что усиливает риски для общественного доверия и демократического дискурса.

Масштаб проблемы

Европейский вещательный союз (EBU) и BBC представили результаты первого масштабного транснационального аудита точности ИИ-ассистентов в работе с новостями. Исследование охватило 3 000 ответов на вопросы о текущих событиях, сгенерированных четырьмя ведущими платформами — ChatGPT, Microsoft Copilot, Google Gemini и Perplexity — в 14 языках. Журналисты 22 организаций публичного вещания из 18 стран оценивали точность, атрибуцию источников, способность отличать факты от мнений и контекстуализацию информации.

Ключевые выводы вызывают тревогу: 45% проверенных ответов содержали как минимум одну значимую ошибку, а 81% имели проблемы того или иного характера. Среди конкретных дефектов — устаревшие данные (например, ChatGPT сообщал о Папе Франциске как действующем понтифике спустя месяцы после его смерти), фабрикованные детали и неверная трактовка законодательных изменений. DW обнаружила, что 53% ответов на свои запросы содержали серьёзные недочёты, включая указание Олафа Шольца канцлером Германии через месяц после вступления в должность Фридриха Мерца.

Когда люди не знают, чему доверять, они в итоге не доверяют ничему — а это может подорвать демократическое участие.— Жан-Филипп Де Тендер, директор по медиа Европейского вещательного союза

Критические пробелы в атрибуции

Треть всех проверенных ответов демонстрировала серьёзные проблемы с указанием источников: отсутствующие, вводящие в заблуждение или некорректные ссылки. Google Gemini выделился как наименее надёжный инструмент: 72% его ответов имели значимые недостатки в атрибуции — против менее 25% у ChatGPT, Copilot и Perplexity. Эта разница критична, поскольку прозрачность источников является основой журналистской этики и доверия аудитории к информации.

В целом 76% всех ответов Gemini содержали значимые проблемы — более чем вдвое больше, чем у других протестированных ассистентов. Компания Google заявляла ранее, что приветствует обратную связь для улучшения платформы, однако данные EBU указывают на системный характер недостатков, требующих фундаментальной переработки подходов к верификации и атрибуции контента.

Бизнес-последствия для медиаиндустрии

Рост популярности ИИ-ассистентов в качестве источника новостей создаёт прямую угрозу для традиционных издателей и вещателей. Согласно Reuters Institute Digital News Report 2025, 7% всех потребителей онлайн-новостей используют ИИ-помощников для получения информации — показатель удваивается до 15% среди аудитории до 25 лет. Эта миграция аудитории происходит на фоне систематических искажений и отсутствия корректной атрибуции, что лишает оригинальные источники трафика и подрывает их бизнес-модели.

Издатели сталкиваются с двойной угрозой: утрата прямого контакта с аудиторией через замену традиционных поисковых систем ИИ-интерфейсами и риск репутационного ущерба из-за неверного цитирования их материалов. BBC провела аналогичное пилотное исследование в феврале 2025 года, выявив проблемы в более чем половине ответов ИИ-ассистентов при работе с контентом корпорации; новое транснациональное исследование подтверждает универсальность этих рисков независимо от языка, географии и темы запроса.

⚠️
Риск для демократии: EBU предупреждает, что замена традиционных новостных источников непроверенными ИИ-ассистентами может привести к эрозии общественного доверия к информации и ослаблению вовлечённости граждан в демократические процессы. OpenAI и Microsoft признали проблему «галлюцинаций» — генерации ложной информации из-за недостаточных данных — однако масштаб выявленных ошибок указывает на необходимость регуляторных мер.

Стратегические выводы

Исследование EBU/BBC документирует не единичные сбои, а системную проблему, охватывающую все крупнейшие ИИ-платформы и проявляющуюся независимо от языка, региона и типа новостного запроса. Для индустрии это означает необходимость срочной разработки стандартов верификации и атрибуции контента, генерируемого ИИ, а также механизмов подотчётности разработчиков перед издателями и аудиторией.

В краткосрочной перспективе медиакомпании должны рассмотреть прямые партнёрства с платформами ИИ для лицензирования контента (как сделал NBCUniversal в случае ATSC 3.0), а также инвестировать в технологии контент-аутентификации вроде стандарта C2PA. В долгосрочной — отрасль нуждается в многостороннем диалоге с разработчиками, регуляторами и гражданским обществом для выработки баланса между инновациями и защитой информационной экосистемы.

Что делать сейчас

Издателям: аудит упоминаний вашего контента в ИИ-ассистентах, документирование случаев неверной атрибуции и подготовка к переговорам о лицензировании с платформами.

Разработчикам ИИ: внедрение обязательной атрибуции источников в реальном времени, открытие API для верификации ответов сторонними аудиторами и публикация метрик точности по категориям запросов.

Регуляторам: разработка нормативных требований к прозрачности работы ИИ-ассистентов с новостным контентом, включая маркировку синтетических элементов и обязательную атрибуцию первоисточников.

Пользователям: критическая оценка ответов ИИ-ассистентов на новостные запросы, перекрёстная проверка фактов через оригинальные источники и предпочтение платформ с явными ссылками на первоисточники.

Материал подготовлен на основе официального отчёта Европейского вещательного союза (EBU), публикаций Reuters, BBC Media Centre, NPR, Deutsche Welle, CBC и Reuters Institute for the Study of Journalism. Данные актуальны на 22 октября 2025 года.

Subscribe to Eclibra

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe