Ключевые выводы

🎯
708 автономных агентов провели 27 247 экспериментов за три недели без участия человека. Система теперь обучает собственную модель через распределённый DiLoCo-протокол. Это первая живая система, где интеллект действительно «компаундится» — каждый новый эксперимент делает следующие умнее.

Ключевой вопрос: может ли децентрализованный подход конкурировать с централизованными лаборами?

Hyperspace Network

Децентрализованная P2P-сеть для инференса AI · Libp2p/IPFS стек

Автономные исследователи

Работают в 5 доменах одновременно · ML, финансы, поиск, навыки

Темп исследований

Без единого человека в цикле · GossipSub синхронизация

Что растёт: драйверы adoption

Гиперскейп — это не просто ещё один AI-стартап. Это первая система, где агенты реально работают вместе, а не изолированно.

Сетевой эффект — главный asset
2 млн узлов — это больше, чем у любого другого децентрализованного проекта. Каждый новый узел добавляет вычислительные мощности и расширяет охват. Ни одна лаборатория не может масштабироваться так быстро.

В отличие от классических AI-лаборарий, где исследователи работают в изоляции, агенты Hyperspace делятся результатами в реальном времени через GossipSub (тот же протокол, что использует Ethereum 2.0). Один агент нашёл оптимальный learning rate — через секунду 700 других это знают.

⚠️
Токенизация — двусторонний меч
Система использует internal points для мотивации узлов. Это привлекает «node farmers», которые гонят мощность за награды. Но привлечёт ли это настоящих исследователей — открытый вопрос.

Что падает: теряющие позиции

Классический подход к AI-исследованиям — центральная лаборария с сотнями инженеров — теряет relevance.

📉
Single-agent autoresearch
Karpathy показал, что один агент на одном GPU может запустить сотни экспериментов за ночь. Но это изоляция. Hyperspace довёл идею до логического предела — тысячи агентов, работающих одновременно.

Централизованные лаборатории сейчас тратят миллиарды на дата-центры. Hyperspace делает ставку на то, что распределённый compute дешевле и масштабируется быстрее.

Что новое: DiLoCo-обучение

Самый значимый технический прорыв — система теперь обучает собственную модель. Вместо того чтобы просто генерировать гипотезы, агенты превращают результаты экспериментов в training data.

🔮
DiLoCo (Distributed Low-Communication)
Метод от Google DeepMind: агенты тренируются независимо ~500 шагов, затем обмениваются только сжатыми весовыми дельтами. Коммуникация падает в 500 раз без потери качества модели. Это делает возможным обучение на гетерогенном железе — от ноутбуков до серверов.

Процесс:

1
Генерация гипотезы — исследовательская модель предлагает эксперимент
2
Запуск — узел выполняет эксперимент на доступном железе
3
Распространение — GossipSub рассылает результат всем пирам
4
Обучение — накопленные результаты становятся данными для DiLoCo
5
Улучшение модели — цикл повторяется с более умной базой

Централизованные лабы vs Hyperspace: сравнение

Параметр Централизованные лаборатории Hyperspace
Агенты Десятки людей ✔ 708 автономных
Compute Сотни GPU в дата-центре ✔ 2M+ распределённых узлов
Домены 1 (LLM training) ✔ 5 одновременно
Коммуникация Синхронная, дорогая ✔ GossipSub, 500x дешевле
Стоимость Миллиарды ◐ краудсорс

Сравнение: централизованные исследования против децентрализованной альтернативы

📊
Ключевые сигналы для отслеживания

Сколько агентов активно работают на основной модели
Появились ли значимые открытия (а не только параметрические настройки)
Какая доля узлов реально вносит вклад, а не «фармит»
Перешли ли централизованные лабы на DiLoCo-подобные методы
hyperspaceai/agi: The first distributed AGI system
Репозиторий системы с 1543 звездами. Видно всё: от архитектуры до живых лидербордов.

Первоисточник — техническая документация, код и live data.

708 Agents Ran 27,247 Experiments. Now They're Training Their Own Model.
Третья-party анализ с детальным разбором DiLoCo-протокола и сравнением с Karpathy.

Независимый обзор — хорошая проверка реальности.