Die Kollision eines autonomen Lieferroboters mit einem Fußgänger bei dichtem Nebel hat die aktuellen Wahrnehmungssysteme in Frage gestellt. Die 3D-Rekonstruktion der Szene integriert Klima- und Sensordaten, um zu bestimmen, ob der Fehler algorithmischer oder umweltbedingter Natur war. Diese forensische Analyse kombiniert LiDAR-Punktwolken, Trajektorien und Simulation, um den Unfall nachzubilden.
Technischer Arbeitsablauf: Von der Punktwolke zur Klimasimulation 🛠️
Der Prozess beginnt mit dem Import von LiDAR-Sensordaten und Stereokameradaten in CloudCompare, wo die Punktwolken des Roboters und des Fußgängers ausgerichtet werden, um die exakte Geometrie der Szene zu ermitteln. Anschließend werden in Trimble RealWorks Bremswege, Annäherungswinkel und Trajektorien vor dem Aufprall gemessen. Der nächste Schritt ist der Export dieser Daten in den Carla Simulator, wo der Nebel mit Dichte- und Reflexionsparametern nachgebildet wird, um den Wahrnehmungsfehler des LiDARs zu simulieren. Schließlich wird Blender verwendet, um eine erklärende Visualisierung zu erstellen, die zeigt, wie sich der Sensorstrahl im Nebel verschlechtert und den Fußgänger im kritischen Moment verbirgt.
Technische Lehren für die urbane autonome Mobilität 🚦
Die Rekonstruktion zeigt, dass der Roboter den Fußgänger aufgrund der Dämpfung des LiDARs durch Wasserpartikel nicht erkannt hat – ein vorhersehbarer, aber nicht gemilderter Fehler. Der Arbeitsablauf demonstriert, dass die Integration von Echtzeit-Wetterdaten für Navigationssysteme entscheidend ist. Ohne eine sensorische Redundanz, die im Nebel funktioniert, werden diese Bots weiterhin ein Risiko auf Fußgängerwegen darstellen.
Wie kann die forensische 3D-Rekonstruktion auf Basis von LiDAR-Daten und Wärmebildkameras die Einschränkungen der visuellen Wahrnehmung bei dichtem Nebel überwinden, um die Verantwortlichkeit bei der Kollision eines Lieferroboters zu bestimmen?
(PS: In der Szenenanalyse ist jeder Maßstabszeuge ein kleiner, anonymer Held.)