Китай выпустил GLM-5 — открытую модель с 744 млрд параметров, обученную полностью на собственных чипах Huawei Ascend. Модель обходит GPT-5.2 и Gemini 3 Pro на SWE-bench Verified и демонстрирует снижение галлюцинаций на 56%.
Выпуск под лицензией MIT и обучение на внутренней инфраструктуре сигнализируют о достижении Китаем технологического суверенитета в AI — несмотря на санкции США на передовые процессоры.
Для западных компаний это означает конец монополии на фронтирные модели и необходимость пересмотра стратегий: открытость, специализация или преимущество в инфраструктуре становятся ключевыми конкурентными факторами.
Технические параметры: масштаб и архитектура
Zhipu AI представила GLM-5 10 февраля 2026 года. Модель использует архитектуру Mixture-of-Experts (MoE) с общими 744 млрд параметров, из которых 40 млрд активируются на каждый токен. Это удвоение масштаба по сравнению с предыдущей версией GLM-4.5, где было 355 млрд общих и 32 млрд активных параметров.
Обучение проводилось на 28.5 трлн токенов — на 23% больше, чем у предшественника. Модель поддерживает контекстное окно 200 000 токенов благодаря интеграции DeepSeek Sparse Attention — механизма, снижающего вычислительную сложность обработки длинного контекста с квадратичной до линейной.
GLM-5 построена на разреженной MoE-архитектуре: из 744 млрд параметров только 40 млрд задействованы в каждом акте инференса. Это позволяет сохранить производительность модели, сопоставимую с плотными моделями 150–200 млрд параметров, при меньшем энергопотреблении и более низких требованиях к памяти.
Бенчмарки: где GLM-5 побеждает и где уступает
На SWE-bench Verified — тесте, оценивающем способность AI решать реальные инженерные задачи из GitHub — GLM-5 достигла 77.8%. Это выше показателей GPT-5.2 (75.4%) и Gemini 3 Pro (76.2%), но ниже результата Claude Opus 4.5 (80.9%).
В математическом reasoning модель набрала 92.7% на AIME 2026 — олимпиадных задачах уровня старшей школы — и 86% на GPQA-Diamond, тесте на научную грамотность для специалистов с PhD. GLM-5 также лидирует на специализированных бенчмарках для агентных систем: BrowseComp (автономная навигация по веб-страницам), Vending Bench 2 (многошаговые транзакции) и MCP-Atlas (использование внешних инструментов через Model Context Protocol).
Ранние пользователи отмечают слабое "ситуационное осознание" (situational awareness) по сравнению с Claude — модель хуже понимает контекст собственных ограничений и ошибок. Некоторые независимые тестировщики также ставят под сомнение прозрачность бенчмаркинга и просят независимой верификации результатов.
Санкции и суверенная инфраструктура
Ключевой момент релиза — полное обучение на чипах Huawei Ascend 910B. После введения США ограничений на экспорт NVIDIA A100/H100 в Китай в 2022–2023 годах китайские компании развернули собственные вычислительные кластеры. Успешное обучение модели класса frontier на внутреннем железе демонстрирует зрелость китайской AI-инфраструктуры.
Zhipu AI не раскрывает точную длительность обучения и финальную стоимость, но аналитики оценивают затраты на обучение 700B+ MoE-моделей в $30–50 млн при использовании собственных датацентров. Для сравнения: GPT-4 обошёлся OpenAI в оценочные $100+ млн в 2023 году на арендованной инфраструктуре Microsoft.
GLM-5 — это первая по-настоящему конкурентная фронтирная модель, обученная полностью на китайской инфраструктуре под санкциями. Это меняет расклад сил в глобальной AI-гонке.— Отчёт Hyper.ai, февраль 2026
Открытая лицензия MIT: стратегия против закрытых систем
Zhipu AI выпустила GLM-5 под лицензией MIT на Hugging Face. Это означает полную свободу использования, модификации и коммерциализации без обязательства раскрывать изменения. Подход контрастирует с моделями OpenAI (закрытые API) и Meta (Llama — условная открытость с ограничениями на коммерческое использование для компаний >700 млн пользователей).
Открытый доступ ускоряет внедрение модели в корпоративные системы и исследовательские проекты. GLM-5 уже доступна через API Zhipu AI и агрегатор OpenRouter, который предоставляет единую точку доступа к десяткам моделей. Это снижает барьер входа для разработчиков и увеличивает охват аудитории.
Снижение галлюцинаций на 56%: практическое значение
Zhipu AI сообщает о сокращении галлюцинаций — ситуаций, когда модель уверенно выдаёт фактически неверную информацию — на 56% относительно GLM-4.5. Метрика измерялась на внутреннем наборе из 10 000 вопросов с верифицированными ответами из научных публикаций и официальных источников.
Для корпоративных внедрений это критичный показатель. Агентные системы, работающие автономно в финансах, медицине или логистике, не могут позволить себе регулярные ошибки атрибуции или выдуманные ссылки. Снижение галлюцинаций на порядок улучшает пригодность модели для production-сценариев без человеческого контроля на каждом шаге.
Для венчурных команд и enterprise: GLM-5 становится реальной альтернативой западным фронтирным моделям для задач кодогенерации, автономных агентов и интеграции с внешними инструментами. Особенно актуально для компаний, ограниченных в доступе к API OpenAI или Anthropic из-за географии или политики данных.
Геополитический контекст: AI-национализм набирает обороты
Выход GLM-5 усиливает тренд суверенного AI. Индия инвестирует в edge AI и многоязычные клинические модели (AI Impact Summit 2026). Европа через Mistral AI строит инфраструктуру в Швеции ($1.2 млрд). Саудовская Аравия и ОАЭ развёртывают собственные кластеры на базе закупленных до санкций чипов.
Китай идёт дальше — создаёт полный стек от чипов до моделей. Если раньше риск санкций означал невозможность обучения конкурентных систем, сейчас это больше не так. Западные компании теряют рычаг контроля через hardware, что меняет долгосрочную динамику отрасли.
Для западных компаний: что это меняет
Появление GLM-5 размывает технологический разрыв между США и Китаем. Для американских и европейских AI-лабораторий это означает три вызова:
Конкуренция на бенчмарках: GLM-5 обходит GPT-5.2 на ключевых инженерных метриках. Монополия на "самую умную модель" больше не работает.
Открытость как стратегия: MIT-лицензия ускоряет внедрение. Meta с Llama и Mistral уже делают ставку на открытость; закрытые API OpenAI теряют привлекательность для компаний, требующих контроля над инфраструктурой.
Специализация вместо универсальности: Если фронтирные модели доступны всем, преимущество смещается к узкоспециализированным решениям (financial agents, medical reasoning, supply chain optimization) и инфраструктурному удобству (latency, privacy, compliance).
Следите за инфраструктурными проектами в Азии и на Ближнем Востоке — спрос на локальные AI-кластеры растёт. Компании, предлагающие fine-tuning, кастомизацию и enterprise-обёртки вокруг открытых моделей, получат преимущество. Закрытые API-провайдеры будут вынуждены конкурировать ценой или уникальными возможностями (например, multimodal, real-time).
Узнать больше
GLM-5 на Hugging Face
Официальная страница модели с полной технической документацией, весами и инструкциями по развёртыванию.
Детальный анализ от Hyper.ai
Технический разбор архитектуры, бенчмарков и геополитического контекста выпуска GLM-5.
Руководство по API GLM-5
Практическое пошаговое руководство по подключению к GLM-5 через API Zhipu AI и OpenRouter.
Источники
Zhipu AI Official Model Release
Официальное объявление Zhipu AI о выпуске GLM-5, технические характеристики и результаты бенчмарков.
Hyper.ai Technical Analysis
Независимый технический анализ архитектуры MoE, DeepSeek Sparse Attention и сравнение с конкурентами.
VentureBeat: Record Low Hallucination Analysis
Исследование снижения галлюцинаций на 56% и методологии тестирования фактической точности.