Крупнейшее международное исследование 22 публичных вещателей выявило системные ошибки в работе ChatGPT, Copilot, Gemini и Perplexity при обработке новостного контента: 45% ответов содержат значимые искажения, 31% — проблемы с атрибуцией источников.
Gemini показал худший результат: 76% ответов имели критические недостатки, более чем в два раза превышая показатели конкурентов, главным образом из-за отсутствия корректных ссылок на источники.
Reuters Institute фиксирует рост использования ИИ-ассистентов для потребления новостей: 7% всех онлайн-пользователей и 15% аудитории до 25 лет полагаются на эти инструменты, что усиливает риски для общественного доверия и демократического дискурса.
Масштаб проблемы
Европейский вещательный союз (EBU) и BBC представили результаты первого масштабного транснационального аудита точности ИИ-ассистентов в работе с новостями. Исследование охватило 3 000 ответов на вопросы о текущих событиях, сгенерированных четырьмя ведущими платформами — ChatGPT, Microsoft Copilot, Google Gemini и Perplexity — в 14 языках. Журналисты 22 организаций публичного вещания из 18 стран оценивали точность, атрибуцию источников, способность отличать факты от мнений и контекстуализацию информации.
Ключевые выводы вызывают тревогу: 45% проверенных ответов содержали как минимум одну значимую ошибку, а 81% имели проблемы того или иного характера. Среди конкретных дефектов — устаревшие данные (например, ChatGPT сообщал о Папе Франциске как действующем понтифике спустя месяцы после его смерти), фабрикованные детали и неверная трактовка законодательных изменений. DW обнаружила, что 53% ответов на свои запросы содержали серьёзные недочёты, включая указание Олафа Шольца канцлером Германии через месяц после вступления в должность Фридриха Мерца.
Когда люди не знают, чему доверять, они в итоге не доверяют ничему — а это может подорвать демократическое участие.— Жан-Филипп Де Тендер, директор по медиа Европейского вещательного союза
Критические пробелы в атрибуции
Треть всех проверенных ответов демонстрировала серьёзные проблемы с указанием источников: отсутствующие, вводящие в заблуждение или некорректные ссылки. Google Gemini выделился как наименее надёжный инструмент: 72% его ответов имели значимые недостатки в атрибуции — против менее 25% у ChatGPT, Copilot и Perplexity. Эта разница критична, поскольку прозрачность источников является основой журналистской этики и доверия аудитории к информации.
В целом 76% всех ответов Gemini содержали значимые проблемы — более чем вдвое больше, чем у других протестированных ассистентов. Компания Google заявляла ранее, что приветствует обратную связь для улучшения платформы, однако данные EBU указывают на системный характер недостатков, требующих фундаментальной переработки подходов к верификации и атрибуции контента.
Бизнес-последствия для медиаиндустрии
Рост популярности ИИ-ассистентов в качестве источника новостей создаёт прямую угрозу для традиционных издателей и вещателей. Согласно Reuters Institute Digital News Report 2025, 7% всех потребителей онлайн-новостей используют ИИ-помощников для получения информации — показатель удваивается до 15% среди аудитории до 25 лет. Эта миграция аудитории происходит на фоне систематических искажений и отсутствия корректной атрибуции, что лишает оригинальные источники трафика и подрывает их бизнес-модели.
Издатели сталкиваются с двойной угрозой: утрата прямого контакта с аудиторией через замену традиционных поисковых систем ИИ-интерфейсами и риск репутационного ущерба из-за неверного цитирования их материалов. BBC провела аналогичное пилотное исследование в феврале 2025 года, выявив проблемы в более чем половине ответов ИИ-ассистентов при работе с контентом корпорации; новое транснациональное исследование подтверждает универсальность этих рисков независимо от языка, географии и темы запроса.
Стратегические выводы
Исследование EBU/BBC документирует не единичные сбои, а системную проблему, охватывающую все крупнейшие ИИ-платформы и проявляющуюся независимо от языка, региона и типа новостного запроса. Для индустрии это означает необходимость срочной разработки стандартов верификации и атрибуции контента, генерируемого ИИ, а также механизмов подотчётности разработчиков перед издателями и аудиторией.
В краткосрочной перспективе медиакомпании должны рассмотреть прямые партнёрства с платформами ИИ для лицензирования контента (как сделал NBCUniversal в случае ATSC 3.0), а также инвестировать в технологии контент-аутентификации вроде стандарта C2PA. В долгосрочной — отрасль нуждается в многостороннем диалоге с разработчиками, регуляторами и гражданским обществом для выработки баланса между инновациями и защитой информационной экосистемы.
Издателям: аудит упоминаний вашего контента в ИИ-ассистентах, документирование случаев неверной атрибуции и подготовка к переговорам о лицензировании с платформами.
Разработчикам ИИ: внедрение обязательной атрибуции источников в реальном времени, открытие API для верификации ответов сторонними аудиторами и публикация метрик точности по категориям запросов.
Регуляторам: разработка нормативных требований к прозрачности работы ИИ-ассистентов с новостным контентом, включая маркировку синтетических элементов и обязательную атрибуцию первоисточников.
Пользователям: критическая оценка ответов ИИ-ассистентов на новостные запросы, перекрёстная проверка фактов через оригинальные источники и предпочтение платформ с явными ссылками на первоисточники.
Материал подготовлен на основе официального отчёта Европейского вещательного союза (EBU), публикаций Reuters, BBC Media Centre, NPR, Deutsche Welle, CBC и Reuters Institute for the Study of Journalism. Данные актуальны на 22 октября 2025 года.