Embedded KI - MATLAB & Simulink

Deep Learning

MATLAB und Simulink für Embedded KI

Bereitstellung von Machine-Learning- und Deep-Learning-Anwendungen auf Embedded Systems

Mit MATLAB und Simulink können Sie KI-Algorithmen entwickeln, simulieren, testen, verifizieren und testen und damit die Leistung und Funktionalität komplexer Embedded Systems verbessern.

Abbildung des Embedded-KI-Workflows.

Bereitstellung in Embedded KI mithilfe von MATLAB und Simulink

Entdecken Sie, wie Sie KI-Modelle vorbereiten und automatisch Code zur Bereitstellung von Embedded-KI-Anwendungen für CPUs, GPUs, FPGAs und mehr generieren können. Sehen Sie sich Tutorials, Beispiele und Videos an und erhalten Sie praktische Ratschläge zu Embedded KI mit MATLAB und Simulink.

Screenshot mit mehrschichtigem Graphen, einer Kalibrierungsstatistik und Validierungsergebnissen, um KI-Modelle für die Bereitstellung in Embedded-Systemen zu optimieren.

Bereitstellung auf CPUs und Mikrocontrollern

Generieren Sie portablen, optimierten C/C++ Code aus trainierten Machine-Learning- und Deep-Learning-Modellen mit MATLAB Coder und Simulink Coder.

Screenshot von C/C++ Code in Simulink, der für Bilder eines NVIDIA-Desktop und einer Embedded GPU bereitgestellt wird.

Bereitstellung auf Grafikkarten

Generieren Sie optimierten CUDA®-Code für trainierte Deep-Learning-Netze mit GPU Coder für die Bereitstellung auf Desktops, Servern und Embedded GPUs.

FPGA-basierte Deep-Learning-Inferenzen können aus MATLAB heraus auf Prototypen-Hardware ausgeführt werden, um anschließend einen HDL-basierten IP-Kern für Deep Learning zu erzeugen, der auf beliebigen FPGAs oder ASICs bereitgestellt werden kann.

Bereitstellung auf FPGAs und SoCs

Erstellen Sie Prototypen und implementieren Sie Deep-Learning-Netze mit Deep Learning HDL Toolbox auf FPGAs und SoCs. Generieren Sie mit HDL Coder individuell erstellte IP-Prozessorkerne und Bitströme für Deep Learning.

Screenshot mit mehrschichtigem Graphen, einer Kalibrierungsstatistik und Validierungsergebnissen, um KI-Modelle für die Bereitstellung in Embedded-Systemen zu optimieren.

Komprimierung von KI-Modellen

Komprimieren Sie tiefe neuronale Netze mit Quantisierung, Projektion oder Pruning zur Senkung des Arbeitsspeicherbedarfs und Steigerung der Inferenzleistung.