Computer Vision Toolbox
Entwickeln und Testen von Computer Vision-, 3D Vision- und Videoverarbeitungssystemen
Die Computer Vision Toolbox™ bietet Algorithmen, Funktionen und Apps für das Design und den Test von Computer Vision-, 3D Vision- und Videobearbeitungssystemen. Sie ermöglicht Objekterkennung und -Tracking sowie Merkmalserkennung, -extraktion und -abgleich. Für 3D Vision unterstützt die Toolbox die Kalibrierung von Einzel-, Stereo- und Fisheye-Kameras; Stereo Vision; 3D-Rekonstruktionen sowie die Verarbeitung von LiDAR und 3D-Punktwolken. Computer Vision-Apps automatisieren Workflows für die Ground Truth-Kennzeichnung und die Kalibrierung von Kameras.
Sie können benutzerdefinierte Objektdetektoren mit Deep Learning- und Machine Learning-Algorithmen wie YOLO v2, Faster R-CNN und ACF trainieren. Deep Learning-Algorithmen wie SegNet, U-Net und DeepLab unterstützen Sie bei der semantischen Segmentierung. Mit vortrainierten Modellen können Sie Gesichter, Fußgänger und andere häufig vorkommende Objekte erkennen.
Sie können Ihre Algorithmen beschleunigen, indem Sie diese auf Mehrkernprozessoren und Grafikkarten ausführen. Die meisten Algorithmen der Toolbox unterstützen die Codegenerierung in C/C++ für die Integration von vorhandenem Code, das Desktop-Prototyping und die Bereitstellung auf Embedded Vision-Systemen.
Jetzt beginnen:
Objekterfassung und -erkennung
Nutzen Sie Frameworks zum Trainieren, Bewerten und Bereitstellen von Objektdetektoren wie YOLO v2, Faster R-CNN, ACF und Viola-Jones. Die Objekterkennungsfunktionen umfassen Bag of Visual Words und OCR. Vortrainierte Modelle erkennen Gesichter, Fußgänger und andere häufig vorkommende Objekte.
Semantische Segmentierung
Segmentieren Sie Bilder und 3D-Volumen, indem Sie einzelne Pixel und Voxel mit Netzen wie SegNet, FCN, U-Net und DeepLab v3+ klassifizieren.
Ground Truth-Kennzeichnung
Automatisieren Sie die Annotation für die Objekterkennung, die semantische Segmentierung und die Szenenklassifikation mit den Apps Video Labeler und Image Labeler.
LiDAR und Verarbeitung von 3D Punktwolken
Führen Sie Segmentierung, Clustering, Downsampling, Rauschentfernung, Registrierung und Anpassung geometrischer Formen für LiDAR- oder 3D Punktwolken-Daten durch. Die Lidar Toolbox™ stellt zusätzliche Funktionen für das Design, die Analyse und den Test von LiDAR-verarbeitenden Systemen bereit.
LiDAR und Punktwolken-E/A
Sie können Punktwolken aus Dateien, von LiDAR und von RGB-D-Sensoren lesen, schreiben und anzeigen.
Registrierung von Punktwolken
Registrieren Sie 3D Punktwolken mit den Algorithmen Normal-Distributions Transform (NDT), Iterative Closest Point (ICP) und Coherent Point Drift (CPD).
Segmentierung und Formanpassung
Segmentieren Sie Punktwolken zu Clustern und passen Sie geometrische Formen an Punktwolken an. Segmentieren Sie die Bodenfläche in LiDAR-Daten für Anwendungen im automatisierten Fahren und in der Robotik.
Kalibrierung einer Einzelkamera
Automatisieren Sie die Schachbretterkennung und kalibrieren Sie Loch- und Fisheye-Kameras mit der Camera Calibrator-App.
Kalibrierung einer Stereokamera
Kalibrieren Sie ein Stereopaar, um die Tiefe zu berechnen und 3D-Szenen zu rekonstruieren.
3D Vision
Ermitteln Sie Strukturen anhand von Bewegung und visueller Odometrie.
Stereo Vision
Schätzen Sie die Tiefe und rekonstruieren Sie eine 3D-Szene mithilfe eines Stereokamerapaars.
Merkmalserkennung, -extraktion und -abgleich
Sie können interessante Merkmale, wie Flächen, Kanten und Ecken, über mehrere Bilder hinweg erkennen, extrahieren und abgleichen.
Merkmalsbasierte Bildregistrierung
Sie können Merkmale über mehrere Bilder hinweg abgleichen, um geometrische Transformationen zwischen Bildern zu schätzen und Bildsequenzen zu registrieren.
Objekt Tracking
Verfolgen Sie Objekt-Bewegungsbahnen von Bild zu Bild in Videosequenzen.
Bewegungsschätzung
Schätzen Sie Bewegungen zwischen Video-Bildern (Frames) mithilfe von optischem Fluss, Block Matching und Template Matching.
Codegenerierung
Generieren Sie C/C++ und CUDA Code sowie MEX-Funktionen für Funktionen, Klassen, Systemobjekte und Blöcke der Toolbox.
Mask-RCNN
Trainieren von Mask-RCNN-Netzen, Segmentierung, mithilfe von Deep Learning
Visuelles SLAM
Verwalten von 3D-Weltpunkten und Projektionskorrespondenzen zu 2D-Bildpunkten
Schätzen der AprilTags-Posen
Erkennen und Schätzen der AprilTags-Posen in einem Bild für Robotik und bei der Kalibrierung der Augmented-Reality-Anwendungskamera
Registrierung von Punktwolken
Registrierung von Punktwolken mittels Phasenkorrelation für SLAM-Anwendungen
Erkennung von Punktwolken-Schleifenverschlüssen
Punktwolken-Merkmalsdeskriptor für SLAM-Schleifenverschluss-Erkennung
Details zu diesen Funktionsmerkmalen und den zugehörigen Funktionen finden Sie in den Release Notes.