AI-инфраструктурный стартап Nscale, основанный всего год назад, заключил с Microsoft расширенное соглашение на развертывание примерно 200,000 графических процессоров NVIDIA GB300 стоимостью до $14 млрд. Это один из крупнейших контрактов в области AI-инфраструктуры, который охватывает четыре дата-центра — три в Европе и один в США.
Глобальная карта развертывания
Крупнейшая часть контракта приходится на США: около 104,000 GPU NVIDIA GB300 будут развернуты в гиперскейловом AI-кампусе в Техасе мощностью ~240 МВт, аренду которого осуществляет Ionic Digital. Поставка начнется в третьем квартале 2026 года, а Nscale планирует расширить мощность объекта до 1.2 гигаватт — этого достаточно для питания небольшого города или обучения моделей с триллионами параметров. Microsoft сохраняет опцию на добавление еще 700 МВт мощности с 2027 года.
Европейская часть соглашения включает три локации. В Португалии на территории Start Campus в Синише будут развернуты около 12,600 GPU начиная с первого квартала 2026 года — это критически важно для предоставления "суверенных AI-решений" внутри Евросоюза. В Великобритании на AI-кампусе Loughton будут размещены 23,000 GPU в 2027 году. Оставшиеся 52,000 GPU поступят в Нарвик, Норвегия, где Nscale уже управляет 30-мегаваттным AI-объектом на гидроэнергии через совместное предприятие с Aker.
Технологическая основа: NVIDIA GB300 Grace Blackwell Ultra
Все четыре локации будут использовать новейшие GPU NVIDIA Blackwell Ultra в конфигурации GB300 NVL72 — это самые мощные чипы компании на текущий момент. Каждый Blackwell Ultra располагает 160 потоковыми мультипроцессорами, что эквивалентно 132 вычислительным ядрам на модуль, и обеспечивает до 15 петафлопс вычислительной мощности для AI-инференса — на 50% больше, чем предыдущее поколение.
Архитектура GB300 NVL72 объединяет 72 GPU и 36 CPU в единую систему с жидкостным охлаждением, обеспечивая до 1.8 эксафлопс производительности AI (FP4) в одной стойке. Ключевые преимущества включают связь "чип-к-чипу" на скорости 900 ГБ/с между Grace CPU и Blackwell Ultra GPU, унифицированную память объемом 2,304 ГБ HBM3E в сочетании с LPDDR5X процессоров Grace, а также поддержку InfiniBand XDR 800 Гбит/с для кластерных конфигураций с ультранизкой задержкой.
This agreement confirms Nscale's place as a partner of choice for the world's most important technology leaders.— Джош Пейн, основатель и CEO Nscale
Феномен Nscale: от спин-оффа до IPO за год
Nscale была выделена из австралийской криптомайнинговой компании Arkon Energy в 2024 году и полностью сфокусировалась на дата-центрах для искусственного интеллекта. За год существования компания привлекла более $1.7 млрд от стратегических партнеров, включая Aker, Nokia и NVIDIA, а также от инвесторов вроде Sandton Capital Partners, G Squared и Point72.
Основатель и CEO Джош Пейн в интервью Financial Times заявил, что компания рассматривает возможность IPO уже в конце 2026 года — это будет одно из самых быстрых восхождений в истории AI-инфраструктуры. Темпы расширения мощностей Nscale демонстрируют как готовность компании, так и приверженность эффективности, устойчивости и предоставлению клиентам самых передовых технологий.
Контекст GPU-гонки: новая модель партнерств
Сделка Nscale-Microsoft вписывается в более широкую волну масштабных GPU-контрактов последних недель. OpenAI анонсировала закупку GPU AMD на 6 гигаватт мощности, а также заключила соглашение с NVIDIA на инвестиции до $100 млрд в обмен на 10 гигаватт чипов. Конкурент Nscale, компания CoreWeave, недавно объявила о миллиардных контрактах с Meta и OpenAI.
Эти сделки отражают фундаментальный сдвиг в AI-индустрии: контроль над вычислительной инфраструктурой становится не менее критичным, чем разработка моделей или алгоритмов. Специализированные провайдеры AI-инфраструктуры — Nscale, CoreWeave, Lambda Labs — бросают вызов традиционным облачным гигантам, предлагая более гибкие и оптимизированные под AI решения.
Практические выводы для индустрии
Для стартапов и разработчиков контракт Microsoft-Nscale сигнализирует о нескольких важных тенденциях. Во-первых, доступ к вычислительной мощности становится ключевым конкурентным преимуществом: компании, способные обеспечить масштабируемую инфраструктуру, получают стратегическое преимущество. Во-вторых, географическая диверсификация критична — европейские проекты отражают растущий спрос на локальные AI-решения в контексте цифрового суверенитета.
Для инвесторов сделка подтверждает, что капиталоемкий сегмент AI-инфраструктуры продолжает привлекать масштабное финансирование, а временной интервал от запуска до IPO сокращается. Консолидация цепочки поставок GPU — от NVIDIA к специализированным операторам вроде Nscale — создает новые точки входа для венчурного капитала.
Джон Тинтер, президент подразделения Business Development and Ventures Microsoft, подчеркнул приверженность глобальной доступности, устойчивости и масштабируемости: "Nscale — идеальный партнер для этой миссии благодаря глубокой экспертизе в предоставлении AI-инфраструктурных услуг в масштабе". Массовое поступление GPU последнего поколения NVIDIA будет критически важным для Microsoft в удовлетворении растущего корпоративного спроса на продвинутые AI-возможности — от больших языковых моделей до сложных задач машинного обучения.
В 2025 году истинная власть заключается не в данных, а в том, кто контролирует чипы и инфраструктуру для их обработки. Контракт Microsoft-Nscale — это не просто закупка оборудования, а стратегическая ставка на будущее, где вычислительная мощность определяет лидерство в AI-гонке.