Что случилось с Figure AI
В федеральный суд Северного округа Калифорнии подан иск против Figure AI, стартапа по разработке гуманоидных роботов, которого инвесторы всего два месяца назад оценили примерно в 39 млрд долларов.
Истец — Роберт Грюндель, главный инженер и руководитель по безопасности продукта, который утверждает, что его уволили вскоре после того, как он задокументировал самые прямые и жёсткие предупреждения о рисках роботов компании.
В иске он утверждает, что один из гуманоидов Figure при испытаниях пробил в стальной дверце холодильника вмятину глубиной около четверти дюйма и развивал усилие, достаточное, по его оценке, чтобы расколоть череп взрослого человека.
По словам Грюнделя, в первые недели работы он обнаружил почти полное отсутствие формализованных процедур безопасности, систем учёта инцидентов и оценки рисков, а также недооценку потенциально опасных «почти-аварий» в лаборатории.
Истец утверждает, что его детальная дорожная карта по безопасности, подготовленная для ключевых инвесторов перед раундом с оценкой в десятки миллиардов, была впоследствии «вычищена» и ослаблена уже после того, как эти инвестиции были привлечены.
Figure AI отрицает обвинения, заявляя, что Грюндель был уволен из-за слабых результатов работы, а его утверждения о рисках и манипуляциях с материалами для инвесторов компания называет ложными и обещает опровергнуть в суде.
Адвокат истца подчёркивает, что калифорнийское законодательство защищает сотрудников, сообщающих о небезопасных практиках, и называет дело одним из первых крупных исков информаторов, связанных именно с безопасностью гуманоидных роботов.
Почему это больше, чем спор одного стартапа
Figure AI позиционирует себя как игрока в гонке за «универсального гуманоидного работника», где участвуют Tesla, Apptronik, Agility и десятки менее заметных команд, обещающих роботам роль следующей вычислительной платформы после смартфона.
На фоне оценки в десятки миллиардов долларов и агрессивных сроков вывода первых пилотов на склады и фабрики любое признание внутренних safety-проблем превращается не просто в инженерную, а в рыночную и регуляторную историю.
Дело Figure попадает в момент, когда исследователи уже несколько лет предупреждают: связка LLM и роботов способна к действиям, которые сложно предсказать и формально проверить на безопасность.
Недавняя работа о рисках LLM-управляемых роботов показала, что модели могут принимать опасные решения — от вмешательства в медицинское оборудование до насильственных сценариев — даже при стандартных фильтрах, что усиливает запрос на формальные оценки рисков и стресс-тесты поведения машин.
Параллельно правоведы анализируют, как действующие режимы ответственности за вред, причинённый роботами и автономными системами, не поспевают за сложностью современных платформ, где поведение — результат связки железа, ПО, данных и моделей ИИ.
На фоне этого «зазора» между технологией и правом громкий иск против одной из самых дорогих компаний в сегменте может ускорить появление де-факто стандартов, которые будут копировать не только стартапы, но и регуляторы в США и за их пределами.
Безопасность против скорости: что описывает иск
Ключевой мотив иска — не отдельный опасный эксперимент, а паттерн: приоритизация скорости разработки и демонстраций для инвесторов над системным построением культуры и процессов безопасности.
Грюндель утверждает, что фиксировал «почти-аварии» в лаборатории и настраивал испытания, показывавшие сверхчеловеческую скорость и силы, которые по расчётам вдвое превышали порог, достаточный для перелома черепа, но не видел вокруг этого структурированного процесса анализа и устранения рисков.
По его версии, попытки донести эти выводы до топ-менеджмента — от Slack-сообщения CEO до обращения к главному инженеру с требованием немедленно отвести людей от роботизированных зон — воспринимались как помеха, а не как ядро инженерной ответственности.
Отдельный пласт обвинений касается инвесторских коммуникаций: дорожная карта по безопасности, которую просили показать двум крупным инвесторам, по словам истца, стала одним из аргументов в пользу их участия, но затем документ был заметно смягчён внутри компании.
Если суд сочтёт, что компании нельзя было одновременно ссылаться на жёсткий план безопасности при привлечении капитала и урезать его после закрытия раунда, то кейс Figure может стать первым сигналом для всего сектора о том, что «safety‑washing» в робототехнике будет рассматриваться как потенциальное введение инвесторов в заблуждение.
Ответ Figure AI строится вокруг нарратива о «неэффективном сотруднике», чьи интерпретации испытаний и внутренней динамики не отражают реальной зрелости процессов безопасности внутри компании, что суду предстоит проверить на фоне растущего интереса к индустрии со стороны регуляторов и общества.
Что это значит для всей индустрии гуманоидов
Даже если многие детали иска останутся предметом споров юристов, у отрасли уже есть несколько неудобных уроков: без формализованных процессов, логирования инцидентов и независимого аудита любая красивая safety-презентация для инвесторов превращается в маркетинговый документ.
Опыт других высокорисковых доменов — от медицинских устройств до беспилотных автомобилей — показывает, что именно первые громкие инциденты и иски задают негласную «минимальную планку» документации, тренингов и технических барьеров, которые инвесторы начинают требовать по умолчанию.
На стороне инженеров усиливается аргумент в пользу встроенных ограничителей: физических ограничений по усилию и скорости, программных зон безопасности, жёсткого разделения режимов тестирования и демонстрации, а также независимого red teaming для роботов, управляемых крупными языковыми моделями.
Для компаний, планирующих использовать гуманоидов на складах, в логистике или в рознице, кейс Figure — повод требовать прозрачных отчётов по испытаниям, доступ к логам инцидентов и права прекращать пилот при изменении конфигурации робота без пересмотра оценки рисков.
Практические идеи для команд и заказчиков
Для стартапов в робототехнике
- Относитесь к safety‑инженерам как к продуктовой функции, а не к службе поддержки: их выводы должны напрямую влиять на дорожные карты, демо и коммуникацию с инвесторами.
- Формализуйте процессы: журналы инцидентов и «почти‑аварий», процедуры остановки тестов, критерии допуска людей в зону работы роботов и периодический независимый аудит должны быть описаны так же подробно, как архитектура модели и софта.
- Разделяйте режимы: то, что роботу позволено в экспериментальном стенде, не должно быть по умолчанию доступно в демо для инвесторов или на площадках заказчиков без дополнительных аппаратных и программных ограничений.
Для крупных заказчиков и партнёров
- Включайте требования к прозрачности безопасности в договоры: описанные процедуры, ответственные лица, SLA по расследованию инцидентов и доступу к логам должны быть формальной частью контракта, а не устными обещаниями.
- Оценивайте не только демо, но и safety‑культуру: наличие независимого совета по безопасности, релиз‑нотов по рискам и планов ремонта уязвимостей говорит о зрелости не меньше, чем скорость и пластичность робота.
Для регуляторов и профсообщества
- Используйте кейс Figure как повод калибровать подходы к ответственности: от распределения вины между разработчиками железа, ПО и моделей ИИ до требований к раскрытию информации перед инвесторами и клиентами.
- Поддерживайте создание открытых методик стресс-тестирования и red teaming гуманоидов, особенно тех, что зависят от LLM, чтобы снизить зависимость от внутренних, непрозрачных процедур компаний.
Узнать больше
Для понимания деталей иска и контекста вокруг Figure AI полезно сопоставить репортажи деловых медиа с самим нарративом инженера-безопасника и позицией компании.
Исследования о рисках LLM‑управляемых роботов и анализ действующих режимов ответственности за вред от автономных систем помогают увидеть, как отдельное дело может трансформировать практики по всей отрасли.
Источники
- CNBC, материал о том, как бывший руководитель по безопасности Figure AI подал иск о неправомерном увольнении и рисках «роботов, способных расколоть череп», 21 ноября 2025 года.
- Benzinga и другие деловые медиа, обзоры иска Nvidia‑backed Figure AI с акцентом на обвинениях в ослаблении плана безопасности после крупного раунда финансирования.
- Gizmodo, аналитический разбор иска информатора против Figure AI с фокусом на отсутствии формализованных процедур безопасности и динамике внутри команды.
- Cryptopolitan и специализированные технологии-ресурсы, пересказывающие ключевые детали иска и контекст впечатляющего роста оценки Figure AI.
- Научные и экспертные работы по ответственности за вред от роботов и автономных систем, описывающие пробелы существующих режимов и варианты реформ.
- Исследования о рисках LLM‑управляемых роботов и цифровых двойников, подчёркивающие необходимость систематических оценок рисков и доверенной автономии.