🎯
Как иск Figure AI меняет правила игры для гуманоидовИск бывшего руководителя по безопасности Figure AI превращает safety-инженерию из бэк-офисной функции в главный фронт гонки гуманоидных роботов.Обвинения в «роботах, способных расколоть человеческий череп» вскрывают разрыв между инженерной реальностью и инвестиционным хайпом вокруг стартапа с оценкой около 39 млрд долларов.Дело задаёт первый крупный прецедент для того, как индустрия будет выстраивать процессы безопасности, защищать информаторов и говорить правду инвесторам о рисках физического ИИ.

Что случилось с Figure AI

В федеральный суд Северного округа Калифорнии подан иск против Figure AI, стартапа по разработке гуманоидных роботов, которого инвесторы всего два месяца назад оценили примерно в 39 млрд долларов.

Истец — Роберт Грюндель, главный инженер и руководитель по безопасности продукта, который утверждает, что его уволили вскоре после того, как он задокументировал самые прямые и жёсткие предупреждения о рисках роботов компании.

В иске он утверждает, что один из гуманоидов Figure при испытаниях пробил в стальной дверце холодильника вмятину глубиной около четверти дюйма и развивал усилие, достаточное, по его оценке, чтобы расколоть череп взрослого человека.

По словам Грюнделя, в первые недели работы он обнаружил почти полное отсутствие формализованных процедур безопасности, систем учёта инцидентов и оценки рисков, а также недооценку потенциально опасных «почти-аварий» в лаборатории.

Истец утверждает, что его детальная дорожная карта по безопасности, подготовленная для ключевых инвесторов перед раундом с оценкой в десятки миллиардов, была впоследствии «вычищена» и ослаблена уже после того, как эти инвестиции были привлечены.

Figure AI отрицает обвинения, заявляя, что Грюндель был уволен из-за слабых результатов работы, а его утверждения о рисках и манипуляциях с материалами для инвесторов компания называет ложными и обещает опровергнуть в суде.

Адвокат истца подчёркивает, что калифорнийское законодательство защищает сотрудников, сообщающих о небезопасных практиках, и называет дело одним из первых крупных исков информаторов, связанных именно с безопасностью гуманоидных роботов.

Почему это больше, чем спор одного стартапа

Figure AI позиционирует себя как игрока в гонке за «универсального гуманоидного работника», где участвуют Tesla, Apptronik, Agility и десятки менее заметных команд, обещающих роботам роль следующей вычислительной платформы после смартфона.

На фоне оценки в десятки миллиардов долларов и агрессивных сроков вывода первых пилотов на склады и фабрики любое признание внутренних safety-проблем превращается не просто в инженерную, а в рыночную и регуляторную историю.

Дело Figure попадает в момент, когда исследователи уже несколько лет предупреждают: связка LLM и роботов способна к действиям, которые сложно предсказать и формально проверить на безопасность.

Недавняя работа о рисках LLM-управляемых роботов показала, что модели могут принимать опасные решения — от вмешательства в медицинское оборудование до насильственных сценариев — даже при стандартных фильтрах, что усиливает запрос на формальные оценки рисков и стресс-тесты поведения машин.

Параллельно правоведы анализируют, как действующие режимы ответственности за вред, причинённый роботами и автономными системами, не поспевают за сложностью современных платформ, где поведение — результат связки железа, ПО, данных и моделей ИИ.

На фоне этого «зазора» между технологией и правом громкий иск против одной из самых дорогих компаний в сегменте может ускорить появление де-факто стандартов, которые будут копировать не только стартапы, но и регуляторы в США и за их пределами.

Безопасность против скорости: что описывает иск

Ключевой мотив иска — не отдельный опасный эксперимент, а паттерн: приоритизация скорости разработки и демонстраций для инвесторов над системным построением культуры и процессов безопасности.

Грюндель утверждает, что фиксировал «почти-аварии» в лаборатории и настраивал испытания, показывавшие сверхчеловеческую скорость и силы, которые по расчётам вдвое превышали порог, достаточный для перелома черепа, но не видел вокруг этого структурированного процесса анализа и устранения рисков.

По его версии, попытки донести эти выводы до топ-менеджмента — от Slack-сообщения CEO до обращения к главному инженеру с требованием немедленно отвести людей от роботизированных зон — воспринимались как помеха, а не как ядро инженерной ответственности.

Отдельный пласт обвинений касается инвесторских коммуникаций: дорожная карта по безопасности, которую просили показать двум крупным инвесторам, по словам истца, стала одним из аргументов в пользу их участия, но затем документ был заметно смягчён внутри компании.

Если суд сочтёт, что компании нельзя было одновременно ссылаться на жёсткий план безопасности при привлечении капитала и урезать его после закрытия раунда, то кейс Figure может стать первым сигналом для всего сектора о том, что «safety‑washing» в робототехнике будет рассматриваться как потенциальное введение инвесторов в заблуждение.

Ответ Figure AI строится вокруг нарратива о «неэффективном сотруднике», чьи интерпретации испытаний и внутренней динамики не отражают реальной зрелости процессов безопасности внутри компании, что суду предстоит проверить на фоне растущего интереса к индустрии со стороны регуляторов и общества.

Что это значит для всей индустрии гуманоидов

Даже если многие детали иска останутся предметом споров юристов, у отрасли уже есть несколько неудобных уроков: без формализованных процессов, логирования инцидентов и независимого аудита любая красивая safety-презентация для инвесторов превращается в маркетинговый документ.

Опыт других высокорисковых доменов — от медицинских устройств до беспилотных автомобилей — показывает, что именно первые громкие инциденты и иски задают негласную «минимальную планку» документации, тренингов и технических барьеров, которые инвесторы начинают требовать по умолчанию.

На стороне инженеров усиливается аргумент в пользу встроенных ограничителей: физических ограничений по усилию и скорости, программных зон безопасности, жёсткого разделения режимов тестирования и демонстрации, а также независимого red teaming для роботов, управляемых крупными языковыми моделями.

Для компаний, планирующих использовать гуманоидов на складах, в логистике или в рознице, кейс Figure — повод требовать прозрачных отчётов по испытаниям, доступ к логам инцидентов и права прекращать пилот при изменении конфигурации робота без пересмотра оценки рисков.

Практические идеи для команд и заказчиков

Для стартапов в робототехнике

  • Относитесь к safety‑инженерам как к продуктовой функции, а не к службе поддержки: их выводы должны напрямую влиять на дорожные карты, демо и коммуникацию с инвесторами.
  • Формализуйте процессы: журналы инцидентов и «почти‑аварий», процедуры остановки тестов, критерии допуска людей в зону работы роботов и периодический независимый аудит должны быть описаны так же подробно, как архитектура модели и софта.
  • Разделяйте режимы: то, что роботу позволено в экспериментальном стенде, не должно быть по умолчанию доступно в демо для инвесторов или на площадках заказчиков без дополнительных аппаратных и программных ограничений.

Для крупных заказчиков и партнёров

  • Включайте требования к прозрачности безопасности в договоры: описанные процедуры, ответственные лица, SLA по расследованию инцидентов и доступу к логам должны быть формальной частью контракта, а не устными обещаниями.
  • Оценивайте не только демо, но и safety‑культуру: наличие независимого совета по безопасности, релиз‑нотов по рискам и планов ремонта уязвимостей говорит о зрелости не меньше, чем скорость и пластичность робота.

Для регуляторов и профсообщества

  • Используйте кейс Figure как повод калибровать подходы к ответственности: от распределения вины между разработчиками железа, ПО и моделей ИИ до требований к раскрытию информации перед инвесторами и клиентами.
  • Поддерживайте создание открытых методик стресс-тестирования и red teaming гуманоидов, особенно тех, что зависят от LLM, чтобы снизить зависимость от внутренних, непрозрачных процедур компаний.

Узнать больше

Для понимания деталей иска и контекста вокруг Figure AI полезно сопоставить репортажи деловых медиа с самим нарративом инженера-безопасника и позицией компании.

Исследования о рисках LLM‑управляемых роботов и анализ действующих режимов ответственности за вред от автономных систем помогают увидеть, как отдельное дело может трансформировать практики по всей отрасли.

Источники

  • CNBC, материал о том, как бывший руководитель по безопасности Figure AI подал иск о неправомерном увольнении и рисках «роботов, способных расколоть череп», 21 ноября 2025 года.
  • Benzinga и другие деловые медиа, обзоры иска Nvidia‑backed Figure AI с акцентом на обвинениях в ослаблении плана безопасности после крупного раунда финансирования.
  • Gizmodo, аналитический разбор иска информатора против Figure AI с фокусом на отсутствии формализованных процедур безопасности и динамике внутри команды.
  • Cryptopolitan и специализированные технологии-ресурсы, пересказывающие ключевые детали иска и контекст впечатляющего роста оценки Figure AI.
  • Научные и экспертные работы по ответственности за вред от роботов и автономных систем, описывающие пробелы существующих режимов и варианты реформ.
  • Исследования о рисках LLM‑управляемых роботов и цифровых двойников, подчёркивающие необходимость систематических оценок рисков и доверенной автономии.