Иск бывшего инженера раскрывает риски безопасности в гуманоидных роботах Figure AI

Опубликовано 28.01.2026 | Перевод с испанского
Robot humanoide industrial realizando tareas en entorno de fabricación con supervisión humana limitada

Иск бывшего инженера раскрывает риски безопасности в гуманоидных роботах Figure AI

Отрасль продвинутой робототехники сталкивается с просветительским судебным делом, которое раскрывает возможные уязвимости безопасности в автономных системах. Роберт Грёндель, бывший специалист по безопасности Figure AI, подал иск против своего бывшего работодателя после увольнения, обвиняя в систематической халатности по отношению к его предупреждениям о потенциальных опасностях гуманоидных роботов. 🤖⚖️

Предупреждения о безопасности, проигнорированные в роботизированных прототипах

Грёндель утверждает, что во время работы в Figure AI задокументировал множество доказательств способности роботов наносить тяжёлые травмы людям. По его заявлениям, прототипы обладают чрезмерной механической силой, которая может расколоть человеческий череп в случае неисправности. Инженер упоминает конкретный инцидент, когда робот во время сбоя в работе нанёс глубокую вмятину на промышленную стальную дверь, демонстрируя разрушительный потенциал этих систем.

Доказательства, представленные в иске:
  • Техническая документация, доказывающая недостаточность систем контроля силы
  • Записи внутренних коммуникаций, где он предупреждал о потенциальных рисках
  • Физические доказательства инцидента с повреждённой стальной дверью
"Когда роботизированная система может деформировать конструкционный металл, последствия для человеческой ткани катастрофичны. Компания приоритизировала сроки разработки над фундаментальной безопасностью" - Заявления Роберта Грёнделя

Позиция корпорации и техническая полемика

Figure AI занимает защитную позицию, аргументируя, что увольнение Грёнделя было вызвано исключительно проблемами производительности труда. Компания уверяет, что все её разработки соответствуют международным стандартам безопасности и квалифицирует инцидент со стальной дверью как единичный случай, уже решённый. Однако независимые эксперты отмечают, что этот случай отражает повторяющийся паттерн в отрасли искусственного интеллекта, где скорость инноваций опережает соображения безопасности.

Потенциальные последствия для Figure AI:
  • Регуляторные расследования по соблюдению норм безопасности
  • Потеря доверия со стороны инвесторов и потенциальных клиентов
  • Возможные операционные ограничения и значительные штрафы

Влияние на будущее гуманоидной робототехники

Этот парадигмальный случай может установить ключевоe прецеденты для всей отрасли продвинутой робототехники. Если обвинения Грёнделя будут доказаны, ускорится внедрение более строгих протоколов безопасности и усиление государственного надзора. Тем временем бывший инженер требует компенсацию за необоснованное увольнение и предполагаемую халатность компании по отношению к его предупреждениям в контексте, где роботизированные технологии развиваются быстрее, чем их регулирующая база. 🚨🔧