A colisão de um robô autônomo de entrega contra um pedestre em condições de neblina densa colocou em xeque os sistemas de percepção atuais. A reconstrução 3D da cena integra dados climáticos e sensoriais para determinar se a falha foi algorítmica ou ambiental. Esta análise forense combina nuvens de pontos LiDAR, trajetórias e simulação para replicar o acidente.
Fluxo de trabalho técnico: da nuvem de pontos à simulação climática 🛠️
O processo inicia com a importação de dados de sensores LiDAR e câmeras estéreo no CloudCompare, onde as nuvens de pontos do robô e do pedestre são alinhadas para estabelecer a geometria exata da cena. Em seguida, no Trimble RealWorks, são medidas distâncias de frenagem, ângulos de aproximação e trajetórias anteriores ao impacto. O próximo passo é exportar esses dados para o Carla Simulator, onde a neblina é recriada com parâmetros de densidade e refletância para simular a falha de percepção do LiDAR. Finalmente, o Blender é utilizado para gerar uma visualização divulgativa que mostra como o feixe do sensor se degrada na neblina, ocultando o pedestre no momento crítico.
Lições de engenharia para a mobilidade autônoma urbana 🚦
A reconstrução revela que o robô não detectou o pedestre devido à atenuação do LiDAR pelas partículas de água, uma falha previsível, mas não mitigada. O fluxo de trabalho demonstra que a integração de dados meteorológicos em tempo real é crítica para os sistemas de navegação. Sem uma redundância sensorial que funcione na neblina, esses bots continuarão sendo um risco nas calçadas de pedestres.
Como a reconstrução 3D forense a partir de dados LiDAR e câmeras térmicas pode superar as limitações da percepção visual em condições de neblina densa para determinar a responsabilidade na colisão de um delivery bot?
(PS: Na análise de cenas, cada testemunha de escala é um pequeno herói anônimo.)