Главное: MIT показал, что reasoning‑модели ИИ и люди используют почти идентичные стратегии распределения вычислительных ресурсов. На сложных задачах мозг тратит больше времени, модели — больше токенов. Это прямо связано с растущей стоимостью энергии дата‑центров.

Когда мышление становится счетом за электричество

Исследователи MIT обнаружили удивительное совпадение: те задачи, на которых люди думают дольше всего, заставляют современные reasoning‑модели генерировать самое большое число внутренних токенов рассуждения. Это не просто корреляция — это отражение фундаментальной истины об экономике интеллекта, будь то биологический или искусственный.

Как это измеряли

Команда под руководством Эвелины Федоренко из McGovern Institute при MIT сравнила работу людей и крупных языковых моделей на семи типах задач — от арифметики до интуитивного вывода. Для людей исследователи фиксировали время ответа с миллисекундной точностью. Для моделей они ввели новый показатель: количество скрытых токенов, которые генерируются во внутренней цепочке рассуждений и не выводятся на экран.

Результат оказался симметричным: чем дольше думает человек, тем больше внутренних токенов генерирует модель. Оба работают по одному принципу — тратят больше ресурсов именно там, где выше неопределенность и решение не лежит на поверхности.

💡
Ключевой вывод: Параллель между временем реакции мозга и токенами рассуждения — это не совпадение, а отражение оптимальной стратегии распределения ресурсов.

От нейробиологии к бюджету редакции

Для журналистских редакций это исследование имеет очень конкретный смысл. Автоматический факт‑чекинг, аналитический анализ трендов, персонализированные дайджесты — все требует включения режима «глубокого мышления» ИИ, где модель проходит через несколько уровней логики и проверки источников.

И каждый раз, когда ИИ переходит в этот режим, происходит два явления одновременно:

  1. Качество растет — модель дает более точный, взвешенный ответ
  2. Счет за электричество увеличивается — каждый дополнительный токен рассуждения — это вычисления на серверах

MIT параллельно развивает исследования по энергоэффективности ИИ, показывая, что крупные дата‑центры провайдеров уже достигают 50–100 мегаватт. На этом фоне стоимость интеллекта все плотнее переплетается со стоимостью энергии.

Стратегический выбор: где требуется интенсивное мышление

Исследование MIT подталкивает к новому типу продуктового дизайна ИИ‑инструментов для журналистов. Интерфейсы должны явно отображать, когда модель включает режим сложных рассуждений и какова его цена. Это может быть:

  • Ползунок глубины анализа
  • Предупреждение о затратном режиме рассуждений
  • Бюджетные лимиты на сложные запросы в редакции

На практике редакции вынуждены делать осознанный выбор: какие задачи действительно требуют интенсивного мышления, а какие можно оставить на уровне быстрых трансформаций текста.

⚠️
Риск: Если редакции не управляют стоимостью мышления, самые ценные функции — проверка фактов, объяснение контекста — могут быть урезаны в пользу дешевых поверхностных сценариев.

К энергетическим паспортам ИИ

Если исследования MIT подтвердят, что соотношение «качество / стоимость» у мозга и ИИ сходится, логичным шагом станут энергетические паспорта для моделей — аналогично текущим метрикам выбросов углерода.

Для платформ вроде Eclibra это открывает нишу журналистики данных: от сравнительных обзоров стоимости до расследований о влиянии счетов за энергию ИИ на редакционные решения.

Исследование MIT становится не просто нейробиологическим сюжетом, а фундаментом для разговора о политэкономии интеллекта как услуги — теме, которая определит развитие медиа на ближайшие годы.