Lidar Toolbox
LiDAR-Verarbeitungssysteme entwickeln, analysieren und testen
Die Lidar Toolbox™ verfügt über Algorithmen, Funktionen und Anwendungen für Entwurf, Analyse und Test der Lidar-Verarbeitungssysteme. Es können Objekterkennung und -verfolgung, semantische Segmentierung, Formanpassung, LiDAR-Registrierung und Hinderniserkennung durchgeführt werden. Die Lidar Toolbox unterstützt die LiDAR-Kamera-Kreuzkalibrierung für Workflows, die Computer Vision und LiDAR-Verarbeitung kombinieren.
Es können benutzerdefinierte Erkennungs- und semantische Segmentierungsmodelle unter Verwendung von Algorithmen für Deep Learning and Machine Learning, wie PointSeg, PointPillars und SqueezeSegV2, trainiert werden. Die Lidar Labeler App unterstützt die manuelle und halbautomatische Beschriftung von LiDAR-Punktwolken für das Training von Deep-Learning- und Machine-Learning-Modellen. Mit der Toolbox können Daten von Velodyne®-LiDARs gestreamt und von Velodyne- und IBEO-LiDAR-Sensoren aufgezeichnete Daten gelesen werden.
Die Lidar Toolbox enthält Referenzbeispiele, die den Einsatz der LiDAR-Verarbeitung für Wahrnehmungs- und Navigations-Workflows veranschaulichen. Die meisten Toolbox-Algorithmen unterstützen die Codegenerierung in C/C++ für die Integration in bestehenden Code, Desktop-Prototyping und Bereitstellung.
Jetzt beginnen:
LiDAR – Semantische Segmentierung
Trainieren, Bewerten und Bereitstellen von semantischen Segmentierungsnetzwerken, einschließlich PointSeg und SqueezeSegV2, auf LiDAR-Daten.
Objekterkennung auf LiDAR-Punktwolken
Erkennen und Anpassen von ausgerichteten Begrenzungsrahmen um Objekte in LiDAR-Punktwolken. Entwerfen, Trainieren und Auswerten fehlerresistenter Detektoren wie z.B. PointPillars-Netze.
LiDAR-Kennzeichnung
Anwenden von eingebauten oder benutzerdefinierten Algorithmen zur Automatisierung der LiDAR-Punktwolkenbeschriftung mit der Lidar Labeler App und Auswerten der Leistung der Automatisierungsalgorithmen.
LiDAR und Kamerakalibrierung
Schätzen der starren Transformationsmatrix zwischen einem LiDAR und einer Kamera mit der Schachbrett-Kalibrierungsmethode.
LiDAR-Kamera-Integrierung
Fusionieren von LiDAR- und Kameradaten zum Projizieren von LiDAR-Punkten auf Bilder, Fusionieren von Farbinformationen in LiDAR-Punktwolken und Schätzen von 3D-Begrenzungsrahmen im LiDAR mit 2D-Begrenzungsrahmen einer gemeinsam platzierten Kamera.
LiDAR-Verarbeitungsalgorithmen
Anwenden von Funktionen und Algorithmen für Downsampling, Medianfilterung, Normalschätzung, Transformation von Punktwolken und Extrahieren von Punktwolkenmerkmalen.
2D-LiDAR-SLAM
Implementieren von Algorithmen zur simultanen Lokalisierung und Kartierung (SLAM) aus 2D-LiDAR-Scans. Schätzen von Positionen und Erstellen von binären oder wahrscheinlichkeitstheoretischen Belegungsgittern mit realen oder simulierten Sensormesswerten.
Erfassen von Velodyne-LiDAR-Sensoren
Erfassen von Live-LiDAR-Punktwolken von Velodyne-LiDAR-Sensoren, deren Visualisierung in MATLAB und Entwicklung von LiDAR-Sensoranwendungen.
Lesen und Schreiben von LiDAR-Punktwolkendaten
Lesen von LiDAR-Daten in verschiedenen Dateiformaten, einschließlich PCAP, LAS, ibeo, PCD und PLY. Schreiben von LiDAR-Daten in PLY- und PCD-Dateien.
Merkmalsextraktion aus LiDAR-Punktwolken
Extrahieren von schnellen Deskriptoren für Punktmerkmalshistogramme (FPFH) aus LiDAR-Punktwolken.
LiDAR-Punktwolkenregistrierung:
Implementieren der 3D-SLAM-Algorithmen durch Zusammenfügen von LiDAR-Punktwolkensequenzen aus Boden- und Luft-LiDAR-Daten.