Ant Group, оператор платформы Alipay, представила Ling-1T — open-source языковую модель с триллионом параметров, достигающую 70.42% точности на математическом бенчмарке AIME 2025. Анонс 9 октября сопровождался выпуском dInfer — фреймворка для вывода диффузионных языковых моделей, который компания позиционирует как решение, в 10 раз превосходящее Fast-dLLM от Nvidia по скорости.
Релиз демонстрирует стратегию китайских технологических компаний в условиях экспортных ограничений на передовые AI-чипы: вместо борьбы за железо — инновации в алгоритмах и оптимизации программного обеспечения как конкурентное преимущество.
Технические характеристики и бенчмарки
Ling-1T позиционируется как флагманская немыслящая модель в расширяющейся экосистеме Ant Group. Она демонстрирует конкурентную производительность на сложных задачах математического рассуждения, что традиционно служит индикатором общих способностей модели к логическому мышлению и решению проблем.
На бенчмарке AIME 2025 — экзамене, используемом для оценки способности AI к решению продвинутых математических задач — Ling-1T показывает результаты, сопоставимые с тем, что Ant Group описывает как лучшие в классе AI-модели. Важно, что модель достигает этой производительности при среднем расходе более 4,000 выходных токенов на задачу, что указывает на глубину рассуждения.
dInfer: ставка на диффузионные модели
Параллельно с Ling-1T компания запустила dInfer — специализированный фреймворк вывода для диффузионных языковых моделей. Это отражает стратегию ставки на множественные технологические подходы вместо единственной архитектурной парадигмы.
Диффузионные языковые модели представляют собой отход от автоpeгрессивных систем, лежащих в основе широко используемых chatbot'ов вроде ChatGPT. В отличие от последовательной генерации текста, диффузионные модели производят выходы параллельно — подход, уже распространённый в генерации изображений и видео, но менее типичный для обработки языка.
В Ant Group мы верим, что Искусственный Общий Интеллект должен быть общественным благом — общей вехой для интеллектуального будущего человечества.— Хэ Чжэнъюй, Chief Technology Officer, Ant Group
Метрики производительности dInfer демонстрируют существенный прирост эффективности. При тестировании на диффузионной модели LLaDA-MoE компании система выдала 1,011 токенов в секунду на кодовом бенчмарке HumanEval, по сравнению с 91 токеном/сек для Fast-dLLM от Nvidia и 294 для модели Alibaba Qwen-2.5-3B на vLLM.
Экосистемная стратегия
Ling-1T триллионо-параметровая модель существует в рамках более широкого семейства AI-систем, собранных Ant Group за последние месяцы. Портфель компании теперь охватывает три основные серии: немыслящие модели Ling для стандартных языковых задач, мыслящие модели Ring для сложного рассуждения (включая ранее выпущенную Ring-1T-preview), и мультимодальные модели Ming, способные обрабатывать изображения, текст, аудио и видео.
Этот диверсифицированный подход распространяется на экспериментальную модель LLaDA-MoE, использующую архитектуру Mixture-of-Experts — технику, активирующую только релевантные части большой модели для конкретных задач, теоретически повышая эффективность. Компания также разрабатывает AWorld — фреймворк для поддержки непрерывного обучения автономных AI-агентов.
Геополитический контекст
Время и характер релизов Ant Group высвечивают стратегические расчёты внутри AI-сектора Китая. С ограниченным доступом к передовым полупроводниковым технологиям из-за экспортных ограничений китайские технологические фирмы всё более акцентируют алгоритмические инновации и оптимизацию ПО как конкурентные дифференциаторы.
ByteDance, материнская компания TikTok, аналогично представила диффузионную языковую модель Seed Diffusion Preview в июле, заявляя о пятикратном улучшении скорости по сравнению с сопоставимыми автоpeгрессивными архитектурами. Эти параллельные усилия предполагают общеотраслевой интерес к альтернативным модельным парадигмам, которые могут предложить преимущества в эффективности.
Практическая применимость
Однако траектория практического внедрения диффузионных языковых моделей остаётся неопределённой. Автоpeгрессивные системы продолжают доминировать в коммерческих развёртываниях благодаря доказанной производительности в понимании и генерации естественного языка — базовым требованиям для клиентских приложений.
Открывая триллионо-параметровую модель Ling-1T вместе с фреймворком dInfer, Ant Group реализует модель коллаборативной разработки, контрастирующую с закрытыми подходами некоторых конкурентов. Эта стратегия потенциально ускоряет инновации, одновременно позиционируя технологии Ant как фундаментальную инфраструктуру для более широкого AI-сообщества.
Перспективы и вызовы
Сможет ли совокупность этих усилий утвердить Ant Group как значимую силу в глобальной AI-разработке, зависит частично от валидации заявленной производительности в реальных условиях и частично от уровня принятия среди разработчиков, ищущих альтернативы устоявшимся платформам.
Open-source природа триллионо-параметровой модели может облегчить этот процесс валидации, одновременно формируя сообщество пользователей, заинтересованных в успехе технологии. На данный момент релизы демонстрируют, что крупные китайские технологические фирмы рассматривают текущий AI-ландшафт как достаточно подвижный для размещения новых участников, готовых инновировать одновременно в нескольких измерениях.
Ant Group Ling-1T на GitHub
Open-source триллионо-параметровая языковая модель с передовой производительностью на математических и рассуждающих бенчмарках. Доступна для исследований и коммерческого использования.
Быстрая череда релизов сигнализирует, что китайские технологические фирмы отказываются уступать позиции в глобальной AI-гонке, вместо этого удваивая ставки на программные инновации и алгоритмическую эффективность как конкурентные дифференциаторы. В условиях, когда доступ к лучшему железу ограничен, победа достаётся тем, кто научится делать больше с меньшими ресурсами — и Ant Group демонстрирует именно этот подход.