Французские исследователи из Université Côte d'Azur и CNRS показали: переход от самых мощных AI-моделей к наиболее энергоэффективным может сократить мировое потребление электричества системами искусственного интеллекта на 27.8% — эквивалент годовой выработки пяти атомных электростанций — при снижении полезности всего на 3.9%.
От «больше значит лучше» к «достаточно малого»
Энергопотребление AI превратилось в критическую проблему устойчивого развития. По данным Международного энергетического агентства, дата-центры США к 2028 году будут потреблять от 325 до 580 TWh — до 12% национального энергобаланса, где AI-операции составляют около 22%. Tiago da Silva Barros и команда из Université Côte d'Azur провели систематическое исследование 14 популярных AI-задач (генерация текста, распознавание речи, классификация изображений), анализируя производительность моделей на платформах Hugging Face и Papers with Code.
Результаты опубликованы в препринте arXiv и демонстрируют классический закон убывающей отдачи: увеличение размера модели приносит всё меньший прирост точности. Например, в распознавании речи лучшая модель в 14 раз крупнее энергоэффективной альтернативы, но превосходит её всего на 7.8% по точности. Используя инструмент CarbonTracker для измерения энергопотребления на этапе инференса (когда AI генерирует ответ), исследователи выявили: переход на самые эффективные модели снижает энергопотребление на 65.8% при падении полезности лишь на 3.9%.
31.9 TWh глобальной экономии
Команда проанализировала паттерны использования моделей разработчиками. Оказалось, многие применяют популярные, но не оптимальные решения (GPT-2, BERT, Stable Diffusion) из-за привычки, известности бренда или аппаратных ограничений. Если пользователи перейдут с высокопроизводительных моделей на энергоэффективные, совокупное снижение потребления достигнет 27.8%. Для США это означает экономию 16.25 TWh в 2025 и 41.8 TWh к 2028 году (эквивалент 2 и 7 атомных реакторов соответственно). Глобально проекция составляет 31.9 TWh в 2025 и 106 TWh к 2028 — выработка 5 и 17 реакторов.
Особенно высокий потенциал показали зрелые задачи: прогнозирование временных рядов (92.8% экономии), распознавание речи (80.6%), классификация изображений (69.6%). Для менее зрелых направлений вроде математического мышления или генерации изображений экономия скромнее — 36% и 18.3% соответственно, так как эффективные альтернативы ещё не разработаны. Интересно, что средняя полезность при переходе на эффективные модели выросла на 4% — многие популярные модели оказались крупнее и слабее оптимальных вариантов.
Три сценария будущего AI
Frédéric Giroire из CNRS отмечает: «Мы были поражены масштабом потенциальной экономии». Исследователи смоделировали три сценария для дата-центров США: (1) business-as-usual с естественным ростом, (2) пессимистичный — массовое внедрение самых мощных моделей из-за эволюции hardware (рост потребления на 111.2%), (3) сценарий умеренности с селекцией моделей (снижение на 27.8%). Переход занимает год (2025-2026), после чего эффект становится постоянным.
Методология основана на валидированном подходе: CarbonTracker показал отклонение всего 3.42% от аппаратного измерителя PowerSpy. Исследователи установили степенную зависимость между размером модели (количеством параметров) и энергопотреблением, что позволило экстраполировать данные на модели, слишком большие для прямого тестирования. Всего проанализировано свыше 22 млрд загрузок моделей, покрывающих 97.3% всех загрузок Hugging Face.
Стратегические выводы
Немедленная применимость: Селекция моделей не требует нового оборудования, переобучения или сложных архитектур — это простое решение, доступное любому разработчику уже сегодня через публичные платформы Hugging Face и Papers with Code.
Парадигмальный сдвиг: Исследование усиливает тренд «green AI» и концепцию «small is sufficient», противопоставленную гонке размеров. Появление эффективных моделей вроде DeepSeek LLM подтверждает жизнеспособность альтернативного пути развития индустрии.
Зрелость задач как ключевой фактор: Максимальная экономия достижима в зрелых доменах, где уже созданы компактные эффективные модели. Для новых направлений (математическое мышление, мультимодальные задачи) требуется интенсификация R&D по оптимизации.
Поведенческие барьеры: Основное препятствие — инерция пользователей, привязанность к популярным брендам (GPT, Stable Diffusion) и недостаток осведомлённости об эффективных альтернативах. Необходимы образовательные инициативы и интеграция рекомендаций по энергоэффективности в AI-платформы.
Климатический императив: При сценарии повсеместного использования топ-моделей рост потребления на 111% создаст дополнительную нагрузку на энергосистемы и увеличит выбросы CO₂, что противоречит целям Парижского соглашения. Селекция моделей становится низкозатратным инструментом климатической политики.
Экономическая целесообразность: Экономия 31.9 TWh/год в 2025 эквивалентна миллиардам долларов операционных расходов дата-центров, создавая прямую финансовую мотивацию для корпораций наряду с ESG-обязательствами.