В начале декабря 2025 года был опубликован новый индекс экзистенциальной безопасности ИИ (Existential Safety Index), который показал тревожный разрыв между публичными заявлениями ведущих ИИ-лабораторий и их реальными практиками по обеспечению безопасности. Несмотря на растущую обеспокоенность общества и регуляторов, исследование показало, что у большинства разработчиков отсутствуют надежные механизмы контроля над передовыми, потенциально сверхразумными системами.

🎯
Главные выводы


Ведущие ИИ-лаборатории, включая Meta, xAI и DeepSeek, получили неудовлетворительные оценки за свои практики в области безопасности, что свидетельствует о существенных пробелах в их подходах к управлению рисками.

Лидеры рынка, такие как Anthropic, OpenAI и Google DeepMind, получили лишь "удовлетворительные" оценки (C+), что подчеркивает, что даже у самых продвинутых компаний есть значительные возможности для улучшения.

Для бизнеса это означает, что при выборе поставщика ИИ-решений необходимо проводить собственный аудит безопасности и не полагаться исключительно на маркетинговые заявления. Акцент на прозрачность, управляемость и наличие планов по снижению рисков становится критически важным.

Общая картина: Что не так с безопасностью ИИ?

Новый отчет Future of Life Institute проливает свет на состояние дел в области безопасности ИИ, и картина оказалась далекой от идеальной. Экспертная панель оценила ведущие ИИ-компании по ряду критериев, включая их способность контролировать продвинутые системы и предотвращать потенциальные угрозы, такие как создание суперинтеллекта, способного нанести вред человечеству.

Результаты оказались неутешительными. Лаборатории, которые считаются одними из самых инновационных в мире, — Meta, xAI Илона Маска и китайская DeepSeek — получили самые низкие оценки. Это говорит о том, что их внутренние протоколы безопасности значительно отстают от мировых стандартов и ожиданий.

⚠️
Разрыв между словами и делами

Несмотря на публичные заявления о приверженности безопасной разработке ИИ, многие компании не смогли продемонстрировать наличие надежных планов по контролю за передовыми системами.

Эксперты отмечают, что отсутствие прозрачных и проверяемых механизмов безопасности создает риски неконтролируемого развития технологий.

Глубокий анализ: Кто и почему провалил тест?

Лидеры индустрии, такие как Anthropic, OpenAI и Google DeepMind, заняли верхние строчки рейтинга, но даже их оценки — C+ и C — трудно назвать выдающимися. Это показывает, что проблема носит системный характер. Отчет подчеркивает, что ни одна из компаний не имеет "надежных планов по контролю над передовыми, потенциально сверхразумными системами".

Причины таких низких оценок кроются в нескольких областях:

  • Отсутствие четких процедур: Многие компании не смогли предоставить доказательств наличия формализованных и протестированных процедур на случай непредвиденного поведения их самых мощных моделей.
  • Слабая защита от взлома: Были выявлены уязвимости, которые могут позволить злоумышленникам использовать ИИ в злонамеренных целях, например, для кибератак.
  • Недостаточная прозрачность: Непрозрачность процессов разработки и принятия решений в компаниях затрудняет независимую оценку рисков.
Проблема в том, что мы движемся вслепую. Компании создают все более мощные системы, но мы, как общество, не имеем ясного представления о том, как они собираются контролировать их, если что-то пойдет не так.— Эксперт в области безопасности ИИ

Как выбирать ИИ-партнера в условиях неопределенности?

Для компаний, которые внедряют ИИ в свои процессы, эти результаты служат серьезным предупреждением. Выбор поставщика ИИ-решений больше не может основываться только на производительности и стоимости модели. Фактор безопасности и надежности выходит на первый план.

Ключевые вопросы, которые стоит задать потенциальному партнеру:

  1. Какие у вас есть процедуры для контроля над моделями? Запросите документацию, описывающую протоколы безопасности.
  2. Как вы тестируете свои системы на устойчивость к враждебным атакам? Узнайте о методах тестирования и результатах.
  3. Насколько прозрачны ваши процессы разработки? Предпочтение следует отдавать компаниям, которые готовы к независимому аудиту.

В то же время, как показывают отчеты, компании, которые используют ИИ для фундаментальной перестройки бизнес-процессов, а не только для снижения издержек, добиваются значительно более высоких результатов в прибыльности и удовлетворенности клиентов [25]. Это подчеркивает важность стратегического подхода к внедрению ИИ, где безопасность является неотъемлемой частью общей стратегии.

Регуляторы берутся за дело

Низкие оценки в индексе безопасности, вероятно, подстегнут регуляторов к более активным действиям. Мы уже видим шаги в этом направлении:

  • Антимонопольное расследование ЕС в отношении Meta: Европейская комиссия начала расследование в отношении Meta из-за возможного ограничения конкуренции на рынке ИИ-ассистентов в WhatsApp.
  • "Миссия Генезис" в США: Администрация президента Трампа запустила инициативу по использованию ИИ для научных и энергетических прорывов, что неизбежно повлечет за собой разработку новых стандартов безопасности.
  • Сделки с издателями: Meta и другие компании заключают соглашения с новостными издательствами для обучения своих моделей, что ставит вопросы о предвзятости и достоверности информации.

В ближайшие годы мы, скорее всего, увидим появление новых, более строгих стандартов и законов, регулирующих разработку и использование ИИ. Для бизнеса это означает необходимость быть в курсе изменений и готовиться к адаптации своих стратегий.

Узнать больше

Ознакомьтесь с полным отчетом Future of Life Institute, чтобы глубже понять методологию оценки и детальные результаты по каждой компании.

Читать отчет

Источники информации

Материал подготовлен на основе публикаций в Fortune, MarketingProfs, отчетов McKinsey и Reuters. Данные актуальны на 6 декабря 2025 года.