Сверхразум откладывается: что сдвиг прогноза с 2027 на 2034 год говорит о реальных барьерах на пути к AGI
Сколько раз вы слышали, что искусственный интеллект достигнет человеческого уровня «уже через пару лет»? В январе 2026 года один из самых влиятельных прогнозистов в этой области — Даниэль Кокотаджло, бывший сотрудник OpenAI и автор сценария «ИИ 2027» — изменил свой медианный прогноз появления сверхразумного искусственного интеллекта (Artificial Superintelligence — ASI, ИИ, значительно превосходящий человека по всем когнитивным задачам) с 2027 на 2034 год. Одновременно он убрал из прогноза оценку экзистенциального риска для человечества. Сдвиг на семь лет — не уточнение, а признание: путь к автономному интеллекту оказался сложнее, чем рисовали расчёты на бумаге.
Что показывает сдвиг таймлайна
Сценарий «ИИ 2027» описывал взрывной рост: к декабрю 2027 года система из 300 000 копий ИИ, работающая на скорости, в 50 раз превышающей человеческую, выдаёт один год научно-технического прогресса за неделю.
Реальный прогресс в автономной разработке кода — ключевом предварительном условии для самоускоряющегося ИИ — идёт в два-три раза медленнее, чем прогнозировала экспоненциальная экстраполяция METR (Metric for Extrapolating Transformer-capabilities, метод экстраполяции возможностей трансформеров).
Цифры, которые изменили прогноз
Медианный прогноз Кокотаджло, обновлённый ноябрь 2025
Бывший сотрудник OpenAI пересмотрел прогноз появления сверхразумного ИИ с 2027 на 2034 год. Оценка экзистенциального риска удалена полностью — не сдвинута, а изъята. · The Guardian, январь 2026
Теоретический множитель в сценарии «ИИ 2027»
Сценарий предполагал, что к июню 2027 года ИИ-системы достигнут множителя прогресса 50× по отношению к человеческим исследователям — 50 лет научной работы за один календарный год. Реальные показатели на порядки ниже. · AI 2027 Scenario, 2025
Масштаб экспертной проверки сценария
Сценарий «ИИ 2027» прошёл проверку более чем 100 экспертами, включал ~25 модельных упражнений и опирался на опыт Кокотаджло в OpenAI. Несмотря на методологическую глубину, реальность оказалась медленнее. · AI 2027 Technical Supplements, 2025
Кто формирует повестку долгосрочного прогнозирования
Сценарий «ИИ 2027» создали пять авторов: Даниэль Кокотаджло, Скотт Александер, Эли Лифланд, Томас Ларсен и Ромео Дин. Кокотаджло — бывший исследователь OpenAI, включённый в список TIME100, — выступил ведущим архитектором. Сценарий описывал не просто техническую траекторию, а целостную модель мира, в котором сверхчеловеческий интеллект возникает, масштабируется и меняет расстановку сил.
Методология опиралась на экстраполяцию трендов, данные METR о удвоении вычислительных возможностей ИИ каждые 4–7 месяцев, а также на ~25 модельных упражнений с обратной связью от более чем 100 экспертов. В ноябре 2025 года Кокотаджло пересмотрел свой медианный прогноз на «около 2030 года, с большой неопределённостью». А в январе 2026-го The Guardian сообщил о ещё более радикальном сдвиге — до 2034 года.
За пределами команды Кокотаджло повестку долгосрочного прогнозирования формируют несколько центров. Исследование Сэма Альтмана и Демиса Хассабиса на India AI Impact Summit 2026 показало расходящиеся оценки: Альтман видит сверхразумный ИИ в более раннем горизонте, Хассабис — в существенно более позднем. Дженсен Хуанг, глава NVIDIA, предположил, что ИИ пройдёт широкий спектр человеческих тестов в течение пяти лет — подход, рассматривающий AGI (Artificial General Intelligence — универсальный искусственный интеллект, способный выполнять любые когнитивные задачи на уровне человека) как инженерную, а не фундаментальную проблему.
Кто теряет авторитет в краткосрочных прогнозах
Экстраполяционные модели, построенные на удвоении вычислительных мощностей, показали систематическую ошибку. Метрика METR фиксировала удвоение горизонта задач, решаемых ИИ, каждые семь месяцев в период 2019–2024 годов, с ускорением до четырёх месяцев после 2024-го. Но эти данные описывают рост в тестовых средах — не в условиях реального развёртывания.
Кокотаджло назвал это «зубчатой траекторией» (jagged trajectory): за прорывами следуют периоды стагнации, когда ИИ демонстрирует сверхчеловеческие результаты в одних задачах и не справляется с другими, казалось бы, более простыми. Проблема не в вычислениях — проблема в том, что реальный мир не является бенчмарком.
Организации, делающие ставку на экспоненциальное масштабирование как на единственный путь к AGI, сталкиваются с тремя барьерами, которые не были учтены в первоначальных моделях. Первый: автономная разработка кода развивается в два-три раза медленнее, чем предсказывала экстраполяция METR. Второй: регуляторные барьеры в реальном мире — соответствие требованиям, безопасность, юридическая ответственность — создают трение, которого нет в лабораторных условиях. Третий: отсутствие рамок управления автономным поведением ИИ становится решающим узким местом, как отметил аналитик Сукх Сандху в своём разборе сдвига таймлайна.
Автономная разработка кода идёт в 2–3 раза медленнее прогноза METR. Регуляторные и юридические барьеры создают трение, отсутствующее в лабораторных бенчмарках. Отсутствие рамок управления автономным поведением ИИ стало решающим узким местом.
Что изменилось на радаре долгосрочного прогнозирования
Сдвиг с 2027 на 2034 год — это не просто «ещё семь лет». Это качественное изменение картины. Сценарий «ИИ 2027» предполагал взрывную динамику: 200 000 параллельных копий сверхчеловеческих программистов к марту 2027 года, эквивалент 50 000 лучших инженеров, работающих на скорости, в 30 раз превышающей человеческую. К декабрю 2027-го — 300 000 копий на скорости 50×, выдающих один год прогресса за неделю. К 2030 году — «решающее стратегическое преимущество» для консенсусного сверхразума.
Реальность 2026 года выглядит иначе. ИИ-агенты способны писать код, но не могут самостоятельно деплоить его в продакшн без человеческой валидации. Модели демонстрируют сверхчеловеческие результаты на специфических бенчмарках, но не справляются с задачами, требующими понимания контекста, социальных норм или физической реальности.
Аналитик Сукх Сандху в своём разборе сдвига таймлайна отметил ключевую деталь: решающее узкое место — не вычислительные мощности и не способность генерировать код. Отсутствие установленных рамок управления, которые могли бы безопасно регулировать, стабилизировать и предварять поведение автономного ИИ до его исполнения, — вот что тормозит весь путь к AGI.
«Решающее узкое место — не сырьевые вычисления или способность к кодированию, а отсутствие установленных рамок управления, которые могли бы безопасно регулировать, стабилизировать и предварять поведение автономного ИИ до его исполнения» — Сукх Сандху, аналитический обзор сдвига таймлайна, январь 2026.
Геополитический контекст сценария — гонка между США и Китаем, концентрация 50 % китайских вычислительных ресурсов в одной зоне «DeepCent», кража весов моделей в феврале 2027 года — тоже не подтвердился в том виде, в каком был описан. Вместо этого мы наблюдаем более диффузную картину: несколько игроков строят собственные модели, регуляторы движутся медленнее технологий, а гонка вооружений ИИ остаётся риторической, а не фактической.
Сравнительная карта: прогноз сценария против реальности
| Параметр | Сценарий «ИИ 2027» | Реальность, апрель 2026 |
|---|---|---|
| Автономная разработка кода | 200 000 копий к марту 2027 | ✗ ИИ пишет код, но не деплоит автономно |
| Множитель прогресса исследований | 50× к июню 2027 | ✗ Множитель не измерен в реальных условиях |
| Сверхразум (ASI) | Декабрь 2027 | ◐ Прогноз сдвинут на 2034 год |
| Экзистенциальный риск | К 2030 — «решающее преимущество» | ✔ Оценка удалена из прогноза |
| Геополитическая гонка | США vs Китай, кража моделей | ◐ Диффузная конкуренция, без кинетических действий |
Сравнение параметров сценария «ИИ 2027» с фактическим состоянием на апрель 2026 года. Источники: AI 2027 Scenario, The Guardian, TechPatro.
Что означает сдвиг для тех, кто принимает стратегические решения
Перенос прогноза на семь лет меняет не дату — он меняет стратегию. Если AGI появится не к 2027 году, а к 2034-му, у организаций есть дополнительное окно для трёх действий, которые ранее казались невозможными из-за нехватки времени.
Во-первых, построение рамок управления. Сукх Сандху прав: именно отсутствие нормативных рамок — главный тормоз. За семь лет можно создать международные стандарты, механизмы аудита и юридическую инфраструктуру для автономных ИИ-систем.
Во-вторых, инфраструктурная подготовка. Сценарий предполагал 10 в 28-й степени FLOP (floating point operations — операции с плавающей запятой, единица измерения вычислительной мощности) для обучения моделей — это в 1000 раз больше, чем вычисления GPT-4. За семь лет инфраструктура может быть масштабирована планомерно, а не в режиме гонки.
В-третьих, кадровый буфер. Если ИИ не заменит джуниор-разработчиков к июлю 2027-го, как предполагал сценарий, у компаний есть время перестроить найм и обучение, вместо того чтобы реагировать на внезапный коллапс рынка труда.
Сигналы для отслеживания
1. Скорость удвоения горизонта задач по METR: если темп замедлится с 4 до 6+ месяцев — экстраполяция теряет силу.
2. Появление полностью автономных ИИ-агентов, способных деплоить код в продакшн без человеческой валидации — пока этого нет.
3. Международные рамки управления автономным ИИ: если к 2028 году не будет принято ни одного обязательного (binding) стандарта — барьер управления сохраняется.
4. Консолидация вычислительной инфраструктуры: если крупнейшие игроки не достигнут 10 в 27-й степени FLOP к 2028 году — масштабирование идёт медленнее сценария.
5. Изменение тональности экспертов: если Кокотаджло или другие ключевые авторы снова пересмотрят прогноз — это сигнал качественного сдвига.
Источники
Первоисточник новости о пересмотре прогноза — ключевой материал, на котором основан весь анализ.
Детальная реконструкция сценария с конкретными числами, датами и геополитическим контекстом — основа для сравнительного анализа.
Альтернативная перспектива: управление как барьер, а не технология — критически важный угол для инвесторов и стратегов.
Контекст расходящихся мнений среди лидеров отрасли — подтверждение, что единого консенсуса по таймлайнам нет.
Ретроспективная проверка точности долгосрочных прогнозов — важный контекст для критики экстраполяционных моделей.