MathWorks stellt Integration von MATLAB und NVIDIA TensorRT vor, mit der Anwendungen der künstlichen Intelligenz beschleunigt werden

Fünfmal schnellere Deep-Learning-Inferenz als mit TensorFlow auf NVIDIA-GPUs

Natick, MA, United States - (27 Mar 2018)

MathWorks teilt mit, dass MATLAB jetzt eine Integration mit NVIDIA TensorRT über GPU Coder bietet. Dies erleichtert Ingenieuren und Wissenschaftlern die Entwicklung neuer Modelle für KI und Deep Learning in MATLAB mit der notwendigen Leistung und Effizienz, um die steigenden Anforderungen an Anwendungen für Rechenzentren sowie im Embedded- und Automobilbereich zu erfüllen.

MATLAB bietet einen vollständigen Arbeitsablauf zum schnellen Trainieren, Validieren und Bereitstellen von Deep-Learning-Modellen. Ingenieure können GPU-Ressourcen ohne zusätzliche Programmierung nutzen, sodass sie sich auf ihre Anwendungen konzentrieren können statt auf die Leistungsoptimierung. Dank der neuen Integration von NVIDIA TensorRT und GPU Coder können in MATLAB entwickelte Deep-Learning-Modelle auf NVIDIA-GPUs mit hohem Durchsatz und geringer Latenz ausgeführt werden. Interne Benchmarks zeigen, dass von MATLAB generierter CUDA-Code in Kombination mit TensorRT Alexnet mit fünfmal höherer Leistung und VGG-16 mit 1,25-mal höherer Leistung bereitstellen kann als die Deep-Learning-Inferenz der entsprechenden Netze in TensorFlow.*

Die schnelle Weiterentwicklung von Bild-, Sprach-, Sensor- und IoT-Technologien führt dazu, dass Teams sich KI-Lösungen mit höherer Leistung und Effizienz ansehen. Außerdem werden Deep-Learning-Modelle komplexer. All dies bedeutet immensen Druck auf Ingenieure”, kommentiert David Rich, MATLAB Marketing Director bei MathWorks. „Jetzt können Teams, die Deep-Learning-Modelle mit MATLAB und NVIDIA-GPUs trainieren, eine Echtzeit-Inferenz in jeder Umgebung bereitstellen, von der Cloud über das Rechenzentrum bis hin zu Embedded-Edge-Geräten.”

Mehr Informationen zu Anwendungsmöglichkeiten von NVIDIA TensorRT mit dem MathWorks GPU Coder erhalten Sie von 9. bis 11. Oktober 2018 auf der GPU Technology Conference (GTC) in München. Besuchen Sie MathWorks auf dem Stand S06.

Weitere Informationen über MATLAB für Deep Learning finden Sie unter: mathworks.com/solutions/deep-learning.html

* Alle Benchmarks wurden mit MATLAB R2018a mit GPU Coder, TensorRT 3.0.1, TensorFlow 1.6.0, CUDA 9.0 und cuDNN 7 auf einer NVIDIA Titan Xp GPU auf einem Linux-basierten 12-Core-Intel® Xeon® E5-1650 v3 PC mit 64 GB RAM ausgeführt.

 

About MathWorks

MathWorks is the leading developer of mathematical computing software. MATLAB, the language of technical computing, is a programming environment for algorithm development, data analysis, visualization, and numeric computation. Simulink is a graphical environment for simulation and Model-Based Design for multidomain dynamic and embedded systems. Engineers and scientists worldwide rely on these product families to accelerate the pace of discovery, innovation, and development in automotive, aerospace, electronics, financial services, biotech-pharmaceutical, and other industries. MATLAB and Simulink are also fundamental teaching and research tools in the world's universities and learning institutions. Founded in 1984, MathWorks employs more than 4000 people in 16 countries, with headquarters in Natick, Massachusetts, USA. For additional information, visit mathworks.com.

MATLAB and Simulink are registered trademarks of The MathWorks, Inc. See mathworks.com/trademarks for a list of additional trademarks. Other product or brand names may be trademarks or registered trademarks of their respective holders.