🎯
Инфраструктура становится оружием

Главный вывод 1: Google выводит Ironwood (7-е поколение TPU) в публичный доступ, конкурируя с NVIDIA Blackwell не качеством, а специализацией — Ironwood оптимизирован для LLM, reasoning models и MoE архитектур, но только для облака Google.

Главный вывод 2: Anthropic закажет до 1 млн Ironwood-чипов — это 250+ раз больше, чем любой другой заказ в истории TPU. Это означает, что специализированная инфраструктура становится критически важнее, чем универсальные GPU.

Главный вывод 3: На фоне экспортных ограничений на GPU (NVIDIA), этот ход — прямая ставка Google на долгосрочное доминирование. Кто контролирует инфраструктуру — тот контролирует AI-компании.

Почему это больше, чем просто новый чип

В июне 2025 года NVIDIA продала рекордные 3,6 млн заказов GPU Blackwell на 2025 год. Заказ от Anthropic на 1 млн Ironwood-чипов — это не просто большое число. Это геополитический сигнал.

Google не объявила о количестве TPU, которые собирается произвести. Но масштаб заказа Anthropic подтверждает, что специализированные AI-чипы стали экономически жизнеспособны. Раньше это было невозможно: создание и тестирование собственного чипа для каждого применения обходилось слишком дорого. Теперь это стандарт.

💡
Три причины заказа Anthropic на 1 млн чипов:

1. Энергоэффективность: Ironwood в 30 раз более эффективен по потреблению энергии, чем первое поколение Cloud TPU (2018). При масштабе 1 млн чипов это сбережение может быть $100+ млн в год на электричество.

2. Производительность по цене: Google не раскрыла цену, но при таком заказе Anthropic, вероятнее всего, согласована специальная цена с условием эксклюзивности или долгосрочного контракта.

3. Вендорная зависимость: Anthropic получает гарантированную поставку в условиях, когда NVIDIA Blackwell недоступны. Это стратегическое партнёрство, замаскированное под коммерческий заказ.

Архитектура Ironwood: что внутри?

Ironwood может работать в двух конфигурациях:

  • Pod 256: 256 TPU-чипов в одном кластере. Основная мощность: обучение средних моделей и развёртывание во время пиков трафика.
  • Pod 9,216: Полный кластер из 9,216 жидкостью охлаждаемых чипов, объединённых через ICI (inter-chip interconnect), потребляющей 10 MW мощности. Это сопоставимо с электроэнергией, требуемой небольшому посёлку.

Каждый чип содержит 192 GB памяти — в 6 раз больше, чем Trillium (6-е поколение TPU). Это критично для работы с очень большими моделями или батчевой обработки длинных контекстов (512K токенов и выше).

⚠️
Критическое ограничение: Ironwood работает только в облаке Google. Нельзя купить Ironwood и установить его в собственный дата-центр. Это вендорная зависимость по архитектуре — на практике, если Anthropic тратит $1 млн+ в месяц на облако Google для обучения Claude, они уже не смогут уйти даже при возможности.

Технические характеристики Ironwood: цифры, которые имеют значение

Характеристика Ironwood (Pod) NVIDIA Blackwell (GB200)
Память на чип 192 GB (Ironwood) 192 GB HBM3e (эквивалент)
Пиковая производительность ~1.46 petaflops (FP8, 256 чипов) ~1.5 petaflops (Blackwell GB200)
Энергоэффективность 30x лучше, чем TPU v1 (2018) Оптимизирована для GPU обучения
Сетевая полоса (Pod 9K) ICI: 10 MW интер-чиповой сети NVLink: 900 GB/s (GB200)
Охлаждение Жидкостное (обязательное для Pod 9K) Воздушное / жидкостное гибридное

Почему Google выбирает этот путь, а NVIDIA нет

NVIDIA не может позволить себе специализированные чипы для каждого клиента — это разрушит модель продаж универсальных GPU. Google может, потому что:

1. Вертикальная интеграция: Google владеет облаком, поэтому может амортизировать стоимость разработки TPU через услуги облака (поиск, ютуб, бизнес-приложения, Workspace, Vertex AI).

2. Масштаб использования: Google тренирует не только внешние модели (Gemini, LaMDA), но и внутренние. Даже если Anthropic откажется от Ironwood, Google уже окупит развитие через собственное использование.

3. Геополитика: Экспортные ограничения на GPU (NVIDIA, AMD) означают, что специализированные чипы — это способ избежать санкций и контроля США. Google может предложить Ironwood любой стране через облако.

Что это означает для AI-индустрии?

Для компаний типа Anthropic: Вы платите не только за вычисления, но и за технологическую привязку. Даже если NVIDIA создаст более мощный чип завтра, переход будет стоить месяцы переоптимизации кода и изменения workflow.

Для стартапов: Специализированные TPU означают, что входной барьер в AI остаётся высоким. Вам нужны миллиарды $$$ для обучения, и вы зависите от облачных провайдеров, которые контролируют оборудование.

Для GPU производителей: NVIDIA остаётся лидером в универсальных ускорителях, но специализированные чипы отъедают маржу. NVIDIA ответит либо покупкой компаний (как она купила Mellanox), либо созданием собственных облачных сервисов (NVIDIA Cloud).

Для геополитики: Этот ход Google — явное утверждение независимости от экспортных контролей США. На фоне торговых войн и санкций это критически важно для дальнейшего развития.

🔥
Главное последствие: Инфраструктура становится стратегическим активом. К 2027 году ожидаемая расходом на облачную AI-инфраструктуру вырастет в 3-4 раза. Компании, которые контролируют оборудование (Google, Amazon, Microsoft, Meta), получат несоразмерную власть над компаниями, которые тратят $1 млн+ в месяц на облако (OpenAI, Anthropic, others).

Временная шкала: что будет дальше

Декабрь 2025 — январь 2026: Google начнёт развёртывание Ironwood в облаке. Первые заказы от Anthropic и других клиентов начнут поступать.

Q2–Q3 2026: Ожидаемый первый полный год использования Ironwood. Google будет отчитываться о производительности и энергоэффективности в официальных отчётах.

Q4 2026 — Q1 2027: Конкуренты (Amazon, Microsoft) начнут выпускать собственные специализированные чипы (AWS Trainium/Inferentia v2, Microsoft Maia). Это станет стандартом облачной индустрии.

2028 и далее: Специализированные чипы будут доминировать. Универсальные GPU останутся только для исследований и нишевых применений.

Практические идеи

Для CTO облачных сервисов: Планируйте миграцию на специализированные чипы вашего провайдера (Google Ironwood, AWS Trainium, или Microsoft Maia) — это даст вам 20–40% снижение затрат на вычисления в течение 18 месяцев. Избегайте новых инвестиций в GPU, если ваш основной облачный провайдер уже выпустил собственный чип.

Google Cloud AI Infrastructure

Облачная платформа Google для работы с AI, включая доступ к Ironwood TPU (с ноября 2025), поддержка LLM, моделей Mixture of Experts, и reasoning systems. Включает инструменты для обучения, fine-tuning и inference.

Посетить Google Cloud

Anthropic Claude

AI-модель, обучаемая на Ironwood TPU. Первый клиент, закупивший 1 млн чипов у Google. Демонстрирует стратегический сдвиг в AI-инфраструктуре.

Узнать о Claude

Материал подготовлен на основе:

Официального анонса Google об Ironwood TPU (ноябрь 2025), отчётов CNBC о заказе Anthropic на 1 млн чипов, и аналитики McKinsey о рынке квантовых и специализированных вычислений. Данные актуальны на 27 ноября 2025.