Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail
Pour débloquer les découvertes de la prochaine génération, les scientifiques se tournent vers les simulations pour mieux comprendre le monde qui nous entoure.
NVIDIA Tesla A100 introduit des cœurs Tensor à double précision pour offrir le plus grand bond en avant dans les performances HPC depuis l'introduction des GPU.Combiné avec 80 Go de mémoire GPU la plus rapide, les chercheurs peuvent réduire une simulation double précision de 10 heures à moins de quatre heures sur NVIDIA Tesla A100.Les applications HPC peuvent également tirer parti de TF32 pour atteindre un débit jusqu'à 11 fois plus élevé pour les opérations de multiplication de matrice dense à simple précision.
Pour les applications HPC avec les plus grands ensembles de données, la mémoire supplémentaire de l'A100 80 Go offre jusqu'à 2 fois plus de débit avec Quantum Espresso, une simulation de matériaux.Cette mémoire massive et cette bande passante mémoire sans précédent font de l'A100 80 Go la plate-forme idéale pour les charges de travail de nouvelle génération.
A100 introduit des fonctionnalités révolutionnaires pour optimiser les charges de travail d'inférence.Il accélère une gamme complète de précision, de FP32 à INT4.La technologie GPU multi-instance (MIG) permet à plusieurs réseaux de fonctionner simultanément sur un seul A100 pour une utilisation optimale des ressources de calcul.Et la prise en charge de la parcimonie structurelle offre jusqu'à 2 fois plus de performances en plus des autres gains de performances d'inférence de l'A100.
Sur les modèles d'IA conversationnels de pointe comme BERT, A100 accélère le débit d'inférence jusqu'à 249X sur les processeurs.
Sur les modèles les plus complexes dont la taille des lots est limitée, comme le RNN-T pour la reconnaissance automatique de la parole, la capacité de mémoire accrue de l'A100 80 Go double la taille de chaque MIG et offre un débit jusqu'à 1,25 fois supérieur à celui de l'A100 40 Go.
Les performances de pointe de NVIDIA ont été démontrées dans MLPerf Inference.A100 apporte 20 fois plus de performances pour étendre encore ce leadership.
NVIDIA A100 pour PCIe | |
Architecture GPU |
NVIDIA Ampère |
Pic FP64 | 9.7 TF |
Noyau tenseur Peak FP64 | 19,5 TF |
Pic FP32 | 19,5 TF |
Noyau tenseur Peak TF32 | 156 TF |312 TF* |
Noyau tenseur Peak BFLOAT16 | 312 TF |624 TF* |
Noyau tenseur Peak FP16 | 312 TF |624 TF* |
Noyau de tenseur Peak INT8 | 624 HAUTS |1 248 TOPS* |
Noyau de tenseur Peak INT4 | 1 248 TOPS |2 496 TOPS* |
Mémoire GPU | 40 Go |
Bande passante mémoire GPU | 1 555 Go/s |
Interconnexion | PCIe Gen4 64 Go/s |
GPU multi-instances | Différentes tailles d'instance avec jusqu'à 7 MIG à 5 Go |
Facteur de forme | PCIe |
Puissance TDP maximale |
250W |
Performances fournies par les meilleures applications |
90% |
A100 avec MIG maximise l'utilisation de l'infrastructure accélérée par GPU.Avec MIG, un GPU A100 peut être partitionné en jusqu'à sept instances indépendantes, permettant à plusieurs utilisateurs d'accéder à l'accélération GPU.Avec A100 40 Go, chaque instance MIG peut être allouée jusqu'à 5 Go, et avec la capacité de mémoire accrue de A100 80 Go, cette taille est doublée à 10 Go.
MIG fonctionne avec Kubernetes, les conteneurs et la virtualisation de serveur basée sur un hyperviseur.MIG permet aux gestionnaires d'infrastructure d'offrir un GPU de la bonne taille avec une qualité de service (QoS) garantie pour chaque tâche, étendant la portée des ressources informatiques accélérées à chaque utilisateur.