Open-source как драйвер: Nvidia продвигает Nemotron — экосистему открытых инструментов для ускоренных вычислений, которой пользуются Meta, Alibaba и DeepSeek.
Интерактивное обучение: Stanford требует перехода от «дата-джаминга» к систематической генерализации — моделям, способным учиться через взаимодействие с миром.
General Robotics вместо AGI: Google DeepMind фокусируется на роботах, «достаточно умных» для решения бытовых задач, а не на утопичном универсальном интеллекте.
Что стоит за шумихой вокруг агентов
Пока корпорации штурмуют тренд AI-агентов, обещая революцию в enterprise-продакшене, исследовательское сообщество задает неудобный вопрос: что дальше? На Bay Area Machine Learning Symposium (BayLearn 2025) в Санта-Кларе ученые из Nvidia, Apple, Google DeepMind и Stanford наметили вектор развития за горизонтом массовых внедрений. Главный месседж: индустрия увязла в гонке за мгновенными результатами, забыв об архитектурных прорывах, которые изменят сам подход к созданию интеллектуальных систем.
Брайан Катандзаро, вице-президент Nvidia по прикладным исследованиям в deep learning, обозначил основу стратегии компании: «Мы строим не просто системы, а решения фундаментальных проблем, которые эти системы должны закрывать». Это не пустые слова — в центре видения Nvidia находится Nemotron, open-source платформа для полного цикла разработки ИИ, от мультимодальных моделей до инструментов масштабирования на GPU-кластерах. Ключевой тезис: акселерированные вычисления — это не чип, а культура специализации.
Nemotron: open-source ставка Nvidia
Nemotron — портмантó из «neural modules» и Megatron (персонаж Transformers) — объединяет мультимодальные модели, датасеты, алгоритмы пре- и пост-трейнинга, а также ПО для оркестрации GPU-кластеров. Катандзаро раскрыл, что датасеты Nemotron уже используются Meta, Alibaba и китайским DeepSeek — свидетельство того, что открытая экосистема работает как акселератор инноваций. Именно Катандзаро в 2013 году убедил Дженсена Хуанга развернуть Nvidia в сторону ИИ, опираясь на опыт работы с FPGA и архитектурой CUDA. Тогда CUDA фокусировался на HPC, а не на machine learning — теперь эта ставка переписала индустрию.
Stanford против «дата-джаминга»
Профессор Кристофер Мэннинг из Stanford Institute for Human-Centered AI напомнил аудитории, что на конференции ACL в 1993 году не было ни одного доклада о языковых моделях — тогда никто не верил, что LLM окажутся полезными. Сегодня Мэннинг критикует обратную крайность: индустрия забила модели терабайтами данных, игнорируя фундаментальное отличие человеческого обучения. «LLM вообще не работают интерактивно. Люди учатся на порядки меньшим объемом данных», — констатирует он.
Решение — систематическая генерализация: способность моделей комбинировать известные элементы в новые смыслы через взаимодействие с окружающей средой. Мэннинг предлагает создать агентов, которые учатся, «тыкаясь по сайтам», исследуя мир, а не впитывая статичные корпуса. Это переход от brute-force scaling к эффективным архитектурам, имитирующим человеческую способность к обобщению.
Мы живем в абсолютно экстраординарное время. Нас ждет дикая поездка в том, как будет развиваться эта технология.— Кристофер Мэннинг, профессор, Stanford University
Apple ставит на эффективность: MLX для Apple Silicon
Apple Research Scientist Ронан Коллобер представил стратегию компании вокруг MLX — open-source ML-фреймворка, оптимизированного под Apple Silicon. Запущенный почти два года назад, MLX трансформирует высокоуровневый Python-код в оптимизированный машинный код, а последние утечки указывают на добавление поддержки CUDA через Nvidia — шаг, направленный на снижение затрат на разработку. «Мы увидели возможность создать ML-софт, заточенный под аппаратуру, думая с точки зрения систем, как надежно деплоить ИИ», — объяснил Коллобер.
Для обычного пользователя MLX пока не так очевиден, как ChatGPT, но для разработчиков это сигнал: Apple готовится к массовому онбордингу локальных моделей на устройствах, минуя облачную зависимость и сохраняя конкурентную edge-стратегию.
Google DeepMind: «Good Enough» робототехника
Эд Чи, вице-президент по исследованиям Google DeepMind, выразил усталость от разговоров об AGI: «Меня достали разговоры об AGI, когда у меня до сих пор нет робота, способного убрать дом». Вместо утопичного «универсального интеллекта» DeepMind делает ставку на general robotics — роботов, способных выполнять широкий спектр бытовых задач через natural language промпты.
В сентябре 2025 DeepMind выпустила модели Gemini Robotics 1.5 и E.R. 1.5, наделяющие роботов reasoning-способностями — от складывания бумаги до выбора одежды по прогнозу погоды. Это сдвиг от узких one-task решений к контекстному пониманию, достаточному для реальных кейсов. Философия «good enough» может стать мантрой индустрии: вместо ожидания идеального AGI — фокус на достаточно умных агентах для конкретных задач.
Бизнес-импликации
Для enterprise: Nemotron и MLX снижают стоимость кастомизации моделей, открывая путь для компаний среднего звена к foundation-моделям без инвестиций в мега-инфраструктуру. Систематическая генерализация может радикально сократить требования к объему тренировочных данных — критичный фактор для отраслей с ограниченными датасетами (медицина, промышленность).
Для инвесторов: Сдвиг от data-centric к interaction-centric подходам требует пересмотра оценки AI-стартапов: важны не только размеры корпусов, но и архитектура, позволяющая обучение через эксплорацию. Роботизация бытовых сценариев (уборка, логистика last-mile) выходит из «хайп-зоны» в категорию «deployable now».
Риски: Open-source экосистемы типа Nemotron размывают барьеры для entry, но одновременно ускоряют коммодитизацию базовых моделей. Конкурентное преимущество смещается в сторону domain-specific адаптации и систем оркестрации, а не самих foundation-моделей.
Что отслеживать
- Выход commercial-версий систематической генерализации: Если Stanford или партнеры покажут работающий прототип агента, обучающегося через интеракцию, это станет сигналом для пересмотра архитектур текущих LLM.
- Интеграцию CUDA в MLX: Подтверждение сотрудничества Apple-Nvidia может радикально изменить ландшафт ML-фреймворков и снизить vendor lock-in.
- Первые массовые релизы general robotics: Если Google DeepMind или конкуренты выведут на рынок доступных домашних роботов в 2026–2027, это станет первым настоящим AGI-like прорывом для конечных пользователей.
Пилотируйте open-source инструменты: Протестируйте Nemotron или MLX для proof-of-concept проектов — early adopters получат конкурентное преимущество в кастомизации моделей.
Пересмотрите data-стратегию: Если ваша компания строит AI-продукт, оцените возможность перехода от статичных датасетов к интерактивному обучению — это может сократить затраты на подготовку данных на 60–80%.
Следите за роботизацией: Компании в retail, logistics и hospitality должны отслеживать релизы general robotics — окно для первопроходцев откроется уже в 2026.
Инвестируйте в системное мышление: Как напоминает Nvidia, AI — это не чип, а интеграция. Компании, способные мыслить на уровне систем (софт + железо + процессы), выиграют гонку следующего десятилетия.