NVIDIA удвоила инвестиции в облачные вычисления до $26 млрд на 6 лет, раскрывая критический дефицит мощности, который существует несмотря на рекордное производство чипов
Компания арендует собственные графические процессоры (GPU) у Lambda Labs, CoreWeave и Oracle — создавая фактически замкнутую экосистему поставщика и потребителя
Это сигнализирует о том, что мощность остается критическим узким местом в глобальной гонке AI, а не технология или инвестиции
Парадокс лидерства: когда эффект масштаба обращается вспять
Когда компания, которая производит 90% всех AI ускорителей в мире, вдруг вынуждена арендовать вычислительные мощности у своих же клиентов, это сигнализирует о фундаментальном сбое в экосистеме. 24 ноября 2025 года NVIDIA раскрыла в своем квартальном отчете (10-Q filing), что удвоила свои планы по аренде облачных вычислительных мощностей — с $13 млрд до $26 млрд на период 2026-2031 годов.
Эта цифра не просто велика; она красноречива. График расходов выглядит следующим образом: $1 млрд в текущем финансовом году (FY2026), эскалация до $6 млрд ежегодно в 2027 и 2028 годах, и стабилизация на $4 млрд в 2030 и 2031 годах. К концу этого периода NVIDIA войдет в топ-5 мировых потребителей облачной инфраструктуры — классификация, которая год назад казалась немыслимой для компании, которая производит эту инфраструктуру.
Это не стратегическая маркетинговая ход. Это крик о помощи, замаскированный под финансовый отчет. NVIDIA не может удовлетворить свои собственные потребности в вычислительной мощности, несмотря на собственное производство, которое составляет более 90 млн единиц графических процессоров в год.
Два года назад NVIDIA запустила облачный сервис DGX Cloud как конкурент Amazon AWS и Microsoft Azure. Идея была логична: вертикальная интеграция от производства чипа до облачного сервиса должна была обеспечить полный контроль над стеком и глубокую привязку клиентов к экосистеме NVIDIA
Но план потерпел неудачу. DGX Cloud оказалась слишком дорогой для большинства потребителей и нишевой по функциям. Клиенты, уже инвестировавшие миллиарды в AWS и Azure, не желали переходить на новую платформу
Результат: облачный сервис DGX Cloud трансформировалась в *внутреннее средство* NVIDIA для проектирования микросхем и разработки моделей AI, а не в общедоступный облачный сервис для широкого рынка
Экосистема поставщика и потребителя: цель стратегии
Вместо конкуренции с гиперскейлерами, NVIDIA создала симбиотическую экосистему, где компания одновременно является поставщиком и потребителем вычислительной мощности.
Lambda Labs ($1.5 млрд контракта на аренду): NVIDIA арендует 10 000 собственных графических процессоров обратно у компании Lambda Labs. Логика сделки: Lambda финансируется NVIDIA для закупок микросхем, Lambda устанавливает их в свои центры обработки данных, а затем NVIDIA арендует мощности обратно для своих внутренних проектов. Это скрытая форма финансирования, замаскированная под коммерческий контракт.
CoreWeave ($6.3 млрд контракта через 2032 год): NVIDIA финансирует закупки вычислительной мощности, которая может остаться нераспроданной на рынке. Если CoreWeave не найдет покупателей, NVIDIA обязана самостоятельно арендовать или приобрести мощность. Это гарантированный спрос для CoreWeave и, что более важно, стабилизатор для всей облачной экосистемы.
Oracle ($1 млрд и более в рамках общей стратегии): NVIDIA использует облачную инфраструктуру Oracle Cloud для своих развивающихся проектов, тогда как Oracle одновременно продвигает графические процессоры NVIDIA как основу своего облачного предложения для рабочих нагрузок AI.
Что раскрывает эта ситуация о рынке облачной вычислительной мощности
1. Мощность — абсолютный дефицит, а не относительный. Даже производитель 90% всех графических процессоров не может обеспечить свои собственные потребности в мощности. Спрос от OpenAI (требует сотни тысяч GPU), Meta (разворачивает Llama инфраструктуру), Anthropic и Google (конкурируют за оставшиеся мощности) настолько превышает предложение, что вся индустрия находится в состоянии перманентного дефицита.
2. Компании-гиперскейлеры больше не являются отдельными монолитами конкуренции. Amazon Web Services (AWS), Microsoft Azure, Google Cloud, Oracle Cloud и новые поставщики облачных услуг специализированные на AI (Lambda, CoreWeave, Crusoe) одновременно конкурируют друг с другом и синхронизированы в борьбе за захват доступных графических процессоров. Это создало ситуацию, когда даже основной поставщик графических процессоров вынуждена "вставать в очередь" для получения мощностей.
3. Финансовые инструменты (лизбэк, гарантированные долгосрочные контракты, финансирование приобретений) стала предпосылкой для выживания в облачной экосистеме. NVIDIA инвестирует $26 млрд не только для гарантированного доступа к мощностям, но и для стабилизации экосистемы в целом. Если компания CoreWeave рухнет из-за избыточной вычислительной мощности, которую не удается продать, это создаст каскадный эффект и дестабилизацию для всей индустрии облачных вычислений.
NVIDIA выявила убыток в размере $4.5 млрд в текущем финансовом году, в основном связанный с микросхемой H20, которая была разработана специально для китайского рынка и неожиданно столкнулась со строгими лицензионными ограничениями США на экспорт
За весь 2025 год NVIDIA получила лицензии от американского правительства на экспортную продажу микросхем H20 стоимостью только $50 млн. Остальная масса микросхем остается либо в инвентаре компании, либо требует переквалификации для других рынков
Это давление выдавливает NVIDIA еще глубже на западный рынок и требует еще большей мощности для американских и европейских проектов. Облачные инвестиции в размере $26 млрд служат стратегией хеджирования против дальнейших геополитических ударов и дополнительных ограничений на экспорт
Стратегия NVIDIA: полный вертикальный стек и экосистемная блокировка конкурентов
NVIDIA не продает просто микросхемы. Компания активно строит полностью вертикально интегрированный стек: аппаратное обеспечение (графические процессоры, сетевое оборудование) → программное обеспечение для разработки (CUDA, TensorRT, Omniverse) → облачные услуги (через стратегических партнеров). Инвестиции в облачные мощности в размере $26 млрд представляют собой еще один критически важный слой в этой стратегической экосистеме.
CUDA (платформа параллельных вычислений NVIDIA) остается стандартом де-факто для разработки приложений на базе AI благодаря базе из 2 млн разработчиков в экосистеме. Если разработчик создал модель на базе CUDA, переход на графические процессоры конкурентов (например, AMD MI300x) требует переписывания от 30% до 50% оптимизационного кода. Эта стоимость переключения создает фактическую блокировку для клиентов.
Облачные инвестиции работают по аналогичному принципу. Если NVIDIA гарантирует стабильный доступ к мощностям через Lambda Labs, CoreWeave и Oracle, выбор остановиться на архитектуре NVIDIA становится "безопасным" и предсказуемым выбором для организации. Вы снижаете риск остаться без вычислительных ресурсов.
Временная шкала развития ситуации: 2025-2032
2025-2026 (текущий период): Дефицит вычислительной мощности рассматривается как нормальное состояние рынка. NVIDIA активно расширяет облачные инвестиции для гарантирования доступа. Альтернативные архитектуры микросхем (AMD MI300x, Cerebras, Graphcore) борются за признание на рынке, но CUDA-lock остается серьезным барьером для входа новых конкурентов.
2027-2028 (период пикового спроса): NVIDIA достигает пика годовых облачных инвестиций в размере $6 млрд. Этот период совпадает с расширением внедрения автономных агентов AI (агентов, способных самостоятельно выполнять многоэтапные сложные задачи). Требования к вычислительной мощности возрастают на 100-1000x по сравнению с текущими нагрузками от вывода больших языковых моделей.
2029-2030 (период стабилизации): Годовые облачные инвестиции NVIDIA стабилизируются на уровне $4 млрд. Это может означать, что либо вычислительная мощность наконец соответствует рыночному спросу, либо спрос сам стабилизируется на плато. Более реалистичный сценарий: оба события происходят одновременно.
2031-2032 (период операционной нормализации): Облачные инвестиции NVIDIA становятся обычной операционной расходной статьей, а не стратегической инициативой чрезвычайной важности. Экосистема Lambda-CoreWeave-Oracle консолидируется как стандартная инфраструктура для облачного AI, аналогично тому, как AWS стала стандартом для облачных вычислений в 2010-х годах.
Критические риски и неопределенности
Риск 1 — Экономическая неэффективность AI инвестиций: Если окупаемость инвестиций в облачную AI инфраструктуру окажется недостаточной для оправдания капитальных расходов компаний, спрос на графические процессоры может резко упасть. NVIDIA будет владеть $26 млрд долгосрочных обязательств по аренде мощностей, которые больше не нужны никому.
Риск 2 — Конкурентные микросхемы достигнут технологического паритета: AMD MI300x, Google TPU v5, Alibaba Qwen silicon и другие конкурирующие архитектуры непрерывно приближаются к паритету с NVIDIA. Если один из конкурентов достигнет 80% производительности NVIDIA при 50% цены, эффект блокировки через CUDA может оказаться недостаточным для удержания клиентов.
Риск 3 — Финансовый дефолт стратегических партнеров: Если Lambda Labs или CoreWeave столкнутся с финансовыми трудностями (что не невероятно, учитывая структуру финансирования молодых компаний), NVIDIA может быть вынуждена взять на себя большую часть операционной нагрузки и управления инфраструктурой, эффективно превратив облачные инвестиции в приобретение компании.
Стратегические последствия для разных типов заинтересованных лиц
Для руководителей технических отделов (CTOs): Выбор архитектуры NVIDIA через облачные партнеры Lambda Labs и CoreWeave уже не является чисто техническим вопросом — это инвестиция в стабильность, предсказуемость и гарантированный доступ к вычислительной мощности. Альтернативные решения (AMD, Cerebras) требуют более глубокого анализа общей стоимости владения и гибкости архитектуры.
Для инвесторов и венчурных фондов: Облачные инвестиции NVIDIA в размере $26 млрд сигнализируют о том, что компания готовится к долгосрочному доминированию в инфраструктуре для AI. Однако существует риск: если вычислительная мощность вдруг соответствует спросу, облачные инвестиции окажут давление на коэффициент маржи прибыли компании.
Для исследователей и академических учреждений: Дефицит графических процессоров остается высоким барьером для входа в область AI исследований для новых исследовательских групп. Только хорошо финансируемые университеты и национальные лаборатории смогут получить доступ к необходимым вычислительным ресурсам.
Источники информации и атрибуция
Материал подготовлен на основе: официального квартального отчета NVIDIA 10-Q (24 ноября 2025), анализа TechStrong IT, базы данных SEC, объявлений о финансировании CoreWeave (сентябрь 2025), данных о партнерстве Lambda Labs, отраслевых отчетов по облачной AI инфраструктуре и публикациях специализированных изданий. Все данные актуальны на 28 ноября 2025 года.