Calculs GPU

 

Calcul MATLAB pour GPU
compatibles CUDA de NVIDIA

Effectuer des calculs MATLAB sur des GPU compatibles CUDA de NVIDIA

 

MATLAB vous permet d’utiliser les GPU NVIDIA® pour accélérer les calculs pour l’intelligence artificielle, le Deep Learning et d’autres algorithmes qui exigent des calculs complexes sans avoir à être un expert en CUDA®. En utilisant MATLAB et Parallel Computing Toolbox, vous pouvez :

  • Utiliser les GPU NVIDIA directement depuis MATLAB avec plus de 1000 fonctions intégrées
  • Accéder à plusieurs GPU sur des ordinateurs de bureau, des clusters de calcul et le cloud en utilisant des workers MATLAB et MATLAB Parallel Server
  • Générer du code CUDA directement à partir de MATLAB pour un déploiement sur les data centers, les clouds et les dispositifs embarqués à l’aide de GPU Coder
  • Générer du code NVIDIA TensorRT™ à partir de MATLAB pour obtenir une faible latence et une inférence à haut débit avec GPU Coder
  • Déployer des applications d’intelligence artificielle MATLAB sur des data centers compatibles NVIDIA pour les intégrer aux systèmes d’entreprise à l’aide de MATLAB Production Server

« Notre code existant prenait jusqu’à 40 minutes pour analyser un seul essai en soufflerie. En utilisant MATLAB et un GPU, le temps de calcul est maintenant inférieur à une minute. Il nous a fallu 30 minutes pour faire fonctionner notre algorithme MATLAB sur le GPU et nous n’avons eu besoin d’aucune programmation CUDA de bas niveau. »

Développer, étendre et déployer des modèles de Deep Learning à l’aide de MATLAB

MATLAB permet à un même utilisateur d’implémenter un workflow de bout en bout pour développer et entraîner des modèles de Deep Learning à l’aide de Deep Learning Toolbox. Vous pouvez ensuite étendre l’apprentissage en utilisant les ressources du cloud et des clusters à l’aide de Parallel Computing Toolbox et de MATLAB Parallel Server, puis le déployer sur des data centers ou des dispositifs embarqués à l’aide de GPU Coder.

Développer le Deep Learning et d’autres applications qui exigent des calculs complexes avec des GPU

MATLAB est une plateforme pour un workflow de bout en bout pour le développement de l’intelligence artificielle et du Deep Learning. MATLAB propose des outils et des applications pour l’importation des jeux de données d’apprentissage, la visualisation et le débogage, le redimensionnement de l’apprentissage des CNN et le déploiement.

Utilisez les ressources supplémentaires de calcul et les GPU des ordinateurs de bureau, des clouds et des clusters avec une seule ligne de code.

Training Progress

Thème

Testez votre hardware CPU et GPU avec gpuBench.

Utiliser MATLAB sur des GPU avec un minimum de modifications au niveau du code

Exécutez le code MATLAB sur des GPU NVIDIA en utilisant plus de 1000 fonctions MATLAB compatibles CUDA. Utilisez les fonctions compatibles GPU dans les toolboxes pour des applications telles que le Deep Learning, le Machine Learning, la vision par ordinateur et le traitement du signal. Parallel Computing Toolbox fournit le type gpuArray, un type de tableau spécial avec plusieurs fonctions associées qui permettent de réaliser des calculs sur des GPU NVIDIA compatibles CUDA directement depuis MATLAB sans avoir à apprendre à utiliser les bibliothèques de calcul GPU de bas niveau.

Les ingénieurs peuvent utiliser les ressources GPU sans avoir à écrire de code supplémentaire, ce qui leur permet de se concentrer sur leurs applications plutôt que sur l’optimisation des performances.

En utilisant des constructions de langages parallèles telles que parfor et spmd, vous pouvez effectuer des calculs sur plusieurs GPU. Pour entraîner un modèle sur plusieurs GPU, il suffit simplement de modifier une option de l’apprentissage.

MATLAB vous permet également d’intégrer vos noyaux CUDA existants dans des applications MATLAB sans que cela ne nécessite de programmation C supplémentaire.


Déployer du code CUDA généré depuis MATLAB pour le déploiement d’inférence avec TensorRT

Avec GPU Coder, générez du code CUDA optimisé à partir de code MATLAB pour le Deep Learning, la vision embarquée et les systèmes autonomes. Le code généré appelle automatiquement les bibliothèques CUDA de NVIDIA optimisées, y compris TensorRT, cuDNN et cuBLAS, pour s’exécuter sur des GPU NVIDIA à faible temps de latence et à haut débit. Intégrez le code généré dans votre projet sous forme de code source ou de bibliothèques statiques ou dynamiques, et déployez-les pour les exécuter sur des GPU tels que NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® et NVIDIA DRIVE®.