Ключевые выводы
Ключевой вопрос: может ли децентрализованный подход конкурировать с централизованными лаборами?
Hyperspace Network
Децентрализованная P2P-сеть для инференса AI · Libp2p/IPFS стек
Автономные исследователи
Работают в 5 доменах одновременно · ML, финансы, поиск, навыки
Темп исследований
Без единого человека в цикле · GossipSub синхронизация
Что растёт: драйверы adoption
Гиперскейп — это не просто ещё один AI-стартап. Это первая система, где агенты реально работают вместе, а не изолированно.
2 млн узлов — это больше, чем у любого другого децентрализованного проекта. Каждый новый узел добавляет вычислительные мощности и расширяет охват. Ни одна лаборатория не может масштабироваться так быстро.
В отличие от классических AI-лаборарий, где исследователи работают в изоляции, агенты Hyperspace делятся результатами в реальном времени через GossipSub (тот же протокол, что использует Ethereum 2.0). Один агент нашёл оптимальный learning rate — через секунду 700 других это знают.
Система использует internal points для мотивации узлов. Это привлекает «node farmers», которые гонят мощность за награды. Но привлечёт ли это настоящих исследователей — открытый вопрос.
Что падает: теряющие позиции
Классический подход к AI-исследованиям — центральная лаборария с сотнями инженеров — теряет relevance.
Karpathy показал, что один агент на одном GPU может запустить сотни экспериментов за ночь. Но это изоляция. Hyperspace довёл идею до логического предела — тысячи агентов, работающих одновременно.
Централизованные лаборатории сейчас тратят миллиарды на дата-центры. Hyperspace делает ставку на то, что распределённый compute дешевле и масштабируется быстрее.
Что новое: DiLoCo-обучение
Самый значимый технический прорыв — система теперь обучает собственную модель. Вместо того чтобы просто генерировать гипотезы, агенты превращают результаты экспериментов в training data.
Метод от Google DeepMind: агенты тренируются независимо ~500 шагов, затем обмениваются только сжатыми весовыми дельтами. Коммуникация падает в 500 раз без потери качества модели. Это делает возможным обучение на гетерогенном железе — от ноутбуков до серверов.
Процесс:
Централизованные лабы vs Hyperspace: сравнение
| Параметр | Централизованные лаборатории | Hyperspace |
|---|---|---|
| Агенты | Десятки людей | ✔ 708 автономных |
| Compute | Сотни GPU в дата-центре | ✔ 2M+ распределённых узлов |
| Домены | 1 (LLM training) | ✔ 5 одновременно |
| Коммуникация | Синхронная, дорогая | ✔ GossipSub, 500x дешевле |
| Стоимость | Миллиарды | ◐ краудсорс |
Сравнение: централизованные исследования против децентрализованной альтернативы
Сколько агентов активно работают на основной модели
Появились ли значимые открытия (а не только параметрические настройки)
Какая доля узлов реально вносит вклад, а не «фармит»
Перешли ли централизованные лабы на DiLoCo-подобные методы
Первоисточник — техническая документация, код и live data.
Независимый обзор — хорошая проверка реальности.