Computer Vision Toolbox

Entwerfen und Testen von Computer-Vision-, 3D-Vision- und Videoverarbeitungssystemen

 

Die Computer Vision Toolbox™ bietet Algorithmen, Funktionen und Apps für den Entwurf und Test von Computer-Vision-, 3D-Vision- und Videoverarbeitungssystemen. Sie ermöglicht Objekterkennung und -verfolgung sowie Merkmalserkennung, -extraktion und -abgleich. Für 3D-Vision unterstützt die Toolbox die Kalibrierung von Einzel-, Stereo- und Fisheye-Kameras; Stereo Vision; 3D-Rekonstruktionen sowie die Verarbeitung von LiDAR und 3D-Punktwolken. Computer-Vision-Apps automatisieren Workflows für die Ground-Truth-Klassifikation und die Kalibrierung von Kameras.

Sie können benutzerdefinierte Objektdetektoren mithilfe von Deep-Learning- und Machine-Learning-Algorithmen wie YOLO v2, Faster R-CNN und ACF trainieren. Für die semantische Segmentierung können Sie Deep-Learning-Algorithmen wie SegNet, U-Net und DeepLab verwenden. Mit vortrainierten Modellen können Sie Gesichter, Fußgänger und andere häufige Objekte erkennen.

Sie können Ihre Algorithmen beschleunigen, indem Sie sie auf Mehrkern-Prozessoren und GPUs ausführen. Die meisten Algorithmen der Toolbox unterstützen die C/C++-Codegenerierung für die Integration mit vorhandenem Code, die Desktop-Prototypenentwicklung und die Bereitstellung auf Embedded-Vision-Systemen.

Jetzt Loslegen:

Deep Learning und Machine Learning

Erfassen, erkennen und segmentieren Sie Objekte mithilfe von Deep Learning und Machine Learning.

Objekterfassung und -erkennung

Nutzen Sie Frameworks zum Trainieren, Bewerten und Bereitstellen von Objektdetektoren wie YOLO v2, Faster R-CNN, ACF und Viola-Jones. Die Objekterkennungsfunktionen umfassen Bag of Visual Words und OCR. Vortrainierte Modelle erkennen Gesichter, Fußgänger und andere häufige Objekte.

Objekterfassung mit Faster R-CNN. 

Semantische Segmentierung

Segmentieren Sie Bilder und 3D-Volumen, indem Sie einzelne Pixel und Voxel mit Netzen wie SegNet, FCN, U-Net und DeepLab v3+ klassifizieren.

Ground-Truth-Annotation

Automatisieren Sie die Annotation für die Objekterkennung, die semantische Segmentierung und die Szenenklassifikation mit den Apps Video Labeler und Image Labeler.

Ground-Truth-Annotation mit der Video Labeler-App.

LiDAR und Verarbeitung von 3D-Punktwolken

Führen Sie Segmentierung, Clustering, Downsampling, Rauschentfernung, Registrierung und Anpassung geometrischer Formen für LiDAR- oder 3D-Punktwolken-Daten durch.

LiDAR und Punktwolken-E/A

Sie können Punktwolken aus Dateien, von LiDAR und von RGB-D-Sensoren lesen, schreiben und anzeigen.

Registrierung von Punktwolken

Registrieren Sie 3D-Punktwolken mit den Algorithmen Normal-Distributions Transform (NDT), Iterative Closest Point (ICP) und Coherent Point Drift (CPD).

Registrierung und Zusammenfügung einer Reihe von Punktwolken.

Segmentierung und Formanpassung

Segmentieren Sie Punktwolken zu Clustern und passen Sie geometrische Formen an Punktwolken an. Segmentieren Sie die Bodenfläche in LiDAR-Daten für Anwendungen im automatisierten Fahren und in der Robotik.

Segmentierte LiDAR-Punktwolke.

Kamerakalibrierung

Schätzen Sie intrinsische, extrinsische und Objektivverzeichnungsparameter von Kameras.

Kalibrierung einer Einzelkamera

Automatisieren Sie die Schachbretterkennung und kalibrieren Sie Loch- und Fisheye-Kameras mit der Camera Calibrator-App.

Kalibrierung einer Stereokamera

Kalibrieren Sie ein Stereopaar, um die Tiefe zu berechnen und 3D-Szenen zu rekonstruieren.

Stereo Camera Calibrator-App.

3D Vision und Stereo Vision

Extrahieren Sie die 3D-Struktur einer Szene aus mehreren 2D-Ansichten. Schätzen Sie die Kamerabewegung und -pose mithilfe visueller Odometrie.

Stereo Vision

Schätzen Sie die Tiefe und rekonstruieren Sie eine 3D-Szene mithilfe eines Stereokamerapaars.

Stereo-Disparitätskarte zur Darstellung relativer Tiefen.

Merkmalserkennung, -extraktion und -abgleich

Nutzen Sie merkmalsbasierte Workflows für die Objektdetektion, Bildregistrierung und Objekterkennung.

Erkennung eines Objekts in einer überladenen Szene mithilfe von Punktmerkmalerkennung, -extraktion und -abgleich.

Merkmalsbasierte Bildregistrierung

Sie können Merkmale über mehrere Bilder hinweg abgleichen, um geometrische Transformationen zwischen Bildern zu schätzen und Bildsequenzen zu registrieren.

Mithilfe der merkmalbasierten Registrierung erstelltes Panorama.

Objekt-Tracking und Bewegungsschätzung

Schätzen Sie in Video- und Bildsequenzen Bewegungen und verfolgen Sie Objekte.

Bewegungsschätzung

Schätzen Sie Bewegungen zwischen Video-Frames mithilfe von optischem Fluss, Block Matching und Template Matching.

Erkennung sich bewegender Objekte mit einer stationären Kamera.

OpenCV-Schnittstelle

Schnittstelle MATLAB und Simulink mit OpenCV-basierten Projekten und Funktionen.

Codegenerierung

Integrieren Sie die Algorithmenentwicklung mit Workflows für Rapid Prototyping, Implementierung und Verifikation.

Neue Funktionen

Punktwolken-Deep-Learning

Feststellen und Klassifizieren von Objekten in 3D-Punktwolken

Deep Learning mit großen Bildern

Trainieren und Nutzen von Deep-Learning-Objektdetektoren und Netzwerken zur semantischen Segmentierung bei sehr großen Bildern

SLAM (Simultaneous Localization and Mapping, gleichzeitige Ortung und Kartenerstellung)

Ausführen von Punktwolken- und Kamera-SLAM

Barcode-Leser

Erfassen und Dekodieren von 1-D- und 2-D-Barcodes

SSD-Objekterfassung

Erfassen von Objekten in Bildern mit einem Single Shot Multibox Object Detector (SSD)

Details zu diesen Merkmalen und den zugehörigen Funktionen finden Sie in den Versionshinweisen.