Autonomes Fahren mit MATLAB
Programm ansehen und anmeldenKursbeschreibung
Dieser zweitägige Kurs liefert eine Einführung in die Entwicklung und Verifizierung von Algorithmen zur Umgebungswahrnehmung. Beispiele und Übungen verdeutlichen die Verwendung geeigneter Funktionalitäten von MATLAB® und der Automated Driving System Toolbox™.
- Themen sind unter anderem:
- Erstellen von Ground-Truth-Daten
- Visualisieren von Sensordaten
- Fahrspur- und Fahrzeugerkennung
- Arbeiten mit Lidar-Punktwolken
- Tracken und Zusammenführen von Sensordaten
- Erzeugen von Fahrszenarien und Synthetisieren von Sensordaten
Tag 1 von 2
Erstellen von Ground-Truth-Daten
Ziel: Interaktives und automatisiertes Erstellen der Ground-Truth aus Videos und Bildsequenzen.
- Verwenden der "Ground Truth Labeler App"
- Beschriften von ROIs (Region of Interest) und Szenen
- Automatisiertes Erstellen der Ground-Truth mithilfe von Detektions- und Tracking Algorithmen
- Betrachten und exportieren der Ground-Truth
Visualisierung von Sensordaten
Ziel: Visualisieren von Kamerabildern, Radar- und Lidardaten. Verwenden geeigneter Koordinatensysteme.
- Visualisierung in Vogelperspektive
- Grafische Darstellung der Sensorabdeckung
- Visualisierung von detektierten Objekten und Fahrspur
- Transformation zwischen Fahrzeug- und Bildkoordinaten
- Kennzeichnung detektierter Objekte und Fahrspurbegrenzung in Videos
Fahrspur- und Fahrzeugerkennung
Ziel: Segmentieren und Modellieren von Fahrspurbegrenzungen. Verwenden vortrainierter Detektoren zur Fahrzeugerkennung.
- Transformation von Bilddaten in Vogelperspektive
- Erkennen der Fahrspurmarkierung
- Erstellen eines Fahrspurmodells
- Abgleich von Fahrspurerkennung und Ground-Truth
- Erkennen von Fahrzeugen
Arbeiten mit Lidar-Punktwolken
Ziel: Arbeiten mit Lidar-Daten, dargestellt als 3D-Punktwolken. Importieren, Anzeigen und Verarbeiten von Punktwolken. Ausrichten der Punktwolken und Erstellen einer Karte.
- Importieren und Anzeigen von Punktwolken
- Vorverarbeiten von Punktwolken
- Segmentieren von Objekten aus Lidar-Sensordaten
- Erstellen einer Karte basierend auf Lidar-Sensordaten
Tag 2 von 2
Tracken und Zusammenführen von Sensordaten
Ziel: Erzeugen eines Multi-Object Trackers um Informationen verschiedener Sensoren, wie z.B. Kamera, Radar und Lidar, zusammenzuführen.
- Tracken mehrerer Objekte
- Vorverarbeiten von Detektionen
- Verwendung von Kalman-Filtern
- Verwalten mehrerer Tracks
- Arbeiten mit dem Multi-Object Tracker
Tracken von erweiterten Objekten
Ziel: Erstellen eines Trackers zum Tracken von erweiterten Objekten und Bestimmen ihrer Maße.
- Definieren von Sensorkonfigurationen
- Tracken von erweiterten Objekten
- Schätzen der räumlichen Ausdehnung
Erzeugen von Fahrszenarien und Synthetisieren von Sensordaten
Ziel: Erzeugen künstlicher Fahrszenarien, sowie Radar- und Kameradetektionen um Algorithmen zur Umgebungswahrnehmung zu testen.
- Verwenden der "Driving Scenario Designer App"
- Erzeugen von Szenarien mit Straßen, Akteuren und Sensoren
- Simulation und Visualisierung von Szenarien
- Erzeugen von Detektionen und Exportieren von Szenarien
- Testen von Algorithmen in Szenarien
Stufe: Aufbaukurse
Voraussetzungen:
- MATLAB Grundlagen
- Bildverarbeitung mit MATLAB, Maschinelles Sehen mit MATLAB and basic knowledge of image processing and computer vision concepts
- Darüber hinaus wird Deep Learning mit MATLAB empfohlen
Dauer: 2 Tage
Sprachen: English, 한국어