Calcul MATLAB pour GPU
compatibles CUDA de NVIDIA
Effectuer des calculs MATLAB sur des GPU compatibles CUDA de NVIDIA
Effectuer des calculs MATLAB sur des GPU compatibles CUDA de NVIDIA
MATLAB vous permet d’utiliser les GPU NVIDIA® pour accélérer les calculs pour l’intelligence artificielle, le Deep Learning et d’autres algorithmes qui exigent des calculs complexes sans avoir à être un expert en CUDA®. En utilisant MATLAB et Parallel Computing Toolbox, vous pouvez :
MATLAB permet à un même utilisateur d’implémenter un workflow de bout en bout pour développer et entraîner des modèles de Deep Learning à l’aide de Deep Learning Toolbox. Vous pouvez ensuite étendre l’apprentissage en utilisant les ressources du cloud et des clusters à l’aide de Parallel Computing Toolbox et de MATLAB Parallel Server, puis le déployer sur des data centers ou des dispositifs embarqués à l’aide de GPU Coder.
MATLAB est une plateforme pour un workflow de bout en bout pour le développement de l’intelligence artificielle et du Deep Learning. MATLAB propose des outils et des applications pour l’importation des jeux de données d’apprentissage, la visualisation et le débogage, le redimensionnement de l’apprentissage des CNN et le déploiement.
Utilisez les ressources supplémentaires de calcul et les GPU des ordinateurs de bureau, des clouds et des clusters avec une seule ligne de code.
Découvrir les produits
Testez votre hardware CPU et GPU avec gpuBench.
Exécutez le code MATLAB sur des GPU NVIDIA en utilisant plus de 1000 fonctions MATLAB compatibles CUDA. Utilisez les fonctions compatibles GPU dans les toolboxes pour des applications telles que le Deep Learning, le Machine Learning, la vision par ordinateur et le traitement du signal. Parallel Computing Toolbox fournit le type gpuArray, un type de tableau spécial avec plusieurs fonctions associées qui permettent de réaliser des calculs sur des GPU NVIDIA compatibles CUDA directement depuis MATLAB sans avoir à apprendre à utiliser les bibliothèques de calcul GPU de bas niveau.
Les ingénieurs peuvent utiliser les ressources GPU sans avoir à écrire de code supplémentaire, ce qui leur permet de se concentrer sur leurs applications plutôt que sur l’optimisation des performances.
En utilisant des constructions de langages parallèles telles que parfor et spmd, vous pouvez effectuer des calculs sur plusieurs GPU. Pour entraîner un modèle sur plusieurs GPU, il suffit simplement de modifier une option de l’apprentissage.
MATLAB vous permet également d’intégrer vos noyaux CUDA existants dans des applications MATLAB sans que cela ne nécessite de programmation C supplémentaire.
Découvrir les produits
Avec GPU Coder, générez du code CUDA optimisé à partir de code MATLAB pour le Deep Learning, la vision embarquée et les systèmes autonomes. Le code généré appelle automatiquement les bibliothèques CUDA de NVIDIA optimisées, y compris TensorRT, cuDNN et cuBLAS, pour s’exécuter sur des GPU NVIDIA à faible temps de latence et à haut débit. Intégrez le code généré dans votre projet sous forme de code source ou de bibliothèques statiques ou dynamiques, et déployez-les pour les exécuter sur des GPU tels que NVIDIA Volta®, NVIDIA Tesla®, NVIDIA Jetson® et NVIDIA DRIVE®.