Les spécifications
Numéro de modèle :
NVIDIA A100
Lieu d'origine :
CHINE
Quantité minimum d'achat :
1 PCS
Modalités de paiement :
L/C, D/A, D/P, T/T
Capacité d'approvisionnement :
20PCS
Heure de livraison :
15-30 jours de mot
Détails de l'' emballage :
Fente unique de 4,4 po H x 7,9 po L
NOM :
Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail
Mot-clé :
Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail
Modèle :
NVIDIA A100
Architecture GPU :
NVIDIA Ampère
Noyau de tenseur Peak BFLOAT16 :
312 TF | 624 TF*
Noyau tenseur Peak FP16 :
312 TF | 624 TF*
Noyau de tenseur Peak INT8 :
624 HAUTS | 1 248 TOPS*
Noyau de tenseur Peak INT4 :
1 248 TOPS | 2 496 TOPS*
Mémoire GPU :
40 GIGAOCTETS
Bande passante mémoire GPU :
1 555 Go/s
Facteur de forme :
PCIe
Définition

Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail

GPU NVIDIA pour le calcul scientifique

GPUTesla A100

Calcul haute performance

Pour débloquer les découvertes de la prochaine génération, les scientifiques se tournent vers les simulations pour mieux comprendre le monde qui nous entoure.

NVIDIA Tesla A100 introduit des cœurs Tensor à double précision pour offrir le plus grand bond en avant dans les performances HPC depuis l'introduction des GPU.Combiné avec 80 Go de mémoire GPU la plus rapide, les chercheurs peuvent réduire une simulation double précision de 10 heures à moins de quatre heures sur NVIDIA Tesla A100.Les applications HPC peuvent également tirer parti de TF32 pour atteindre un débit jusqu'à 11 fois plus élevé pour les opérations de multiplication de matrice dense à simple précision.

Pour les applications HPC avec les plus grands ensembles de données, la mémoire supplémentaire de l'A100 80 Go offre jusqu'à 2 fois plus de débit avec Quantum Espresso, une simulation de matériaux.Cette mémoire massive et cette bande passante mémoire sans précédent font de l'A100 80 Go la plate-forme idéale pour les charges de travail de nouvelle génération.

Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail

Inférence d'apprentissage en profondeur

A100 introduit des fonctionnalités révolutionnaires pour optimiser les charges de travail d'inférence.Il accélère une gamme complète de précision, de FP32 à INT4.La technologie GPU multi-instance (MIG) permet à plusieurs réseaux de fonctionner simultanément sur un seul A100 pour une utilisation optimale des ressources de calcul.Et la prise en charge de la parcimonie structurelle offre jusqu'à 2 fois plus de performances en plus des autres gains de performances d'inférence de l'A100.

Sur les modèles d'IA conversationnels de pointe comme BERT, A100 accélère le débit d'inférence jusqu'à 249X sur les processeurs.

Sur les modèles les plus complexes dont la taille des lots est limitée, comme le RNN-T pour la reconnaissance automatique de la parole, la capacité de mémoire accrue de l'A100 80 Go double la taille de chaque MIG et offre un débit jusqu'à 1,25 fois supérieur à celui de l'A100 40 Go.

Les performances de pointe de NVIDIA ont été démontrées dans MLPerf Inference.A100 apporte 20 fois plus de performances pour étendre encore ce leadership.

Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail

Spécifications techniques NVIDIA Tesla A100

NVIDIA A100 pour PCIe
Architecture GPU

NVIDIA Ampère

Pic FP64 9.7 TF
Noyau tenseur Peak FP64 19,5 TF
Pic FP32 19,5 TF
Noyau tenseur Peak TF32 156 TF |312 TF*
Noyau tenseur Peak BFLOAT16 312 TF |624 TF*
Noyau tenseur Peak FP16 312 TF |624 TF*
Noyau de tenseur Peak INT8 624 HAUTS |1 248 TOPS*
Noyau de tenseur Peak INT4 1 248 TOPS |2 496 TOPS*
Mémoire GPU 40 Go
Bande passante mémoire GPU 1 555 Go/s
Interconnexion PCIe Gen4 64 Go/s
GPU multi-instances Différentes tailles d'instance avec jusqu'à 7 MIG à 5 Go
Facteur de forme PCIe

Puissance TDP maximale

250W

Performances fournies par les meilleures applications

90%

Utilisation prête pour l'entreprise

A100 avec MIG maximise l'utilisation de l'infrastructure accélérée par GPU.Avec MIG, un GPU A100 peut être partitionné en jusqu'à sept instances indépendantes, permettant à plusieurs utilisateurs d'accéder à l'accélération GPU.Avec A100 40 Go, chaque instance MIG peut être allouée jusqu'à 5 Go, et avec la capacité de mémoire accrue de A100 80 Go, cette taille est doublée à 10 Go.

MIG fonctionne avec Kubernetes, les conteneurs et la virtualisation de serveur basée sur un hyperviseur.MIG permet aux gestionnaires d'infrastructure d'offrir un GPU de la bonne taille avec une qualité de service (QoS) garantie pour chaque tâche, étendant la portée des ressources informatiques accélérées à chaque utilisateur.

Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail

Envoyez votre message à ce fournisseur
Envoyez maintenant

Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail

Demandez le dernier prix
Numéro de modèle :
NVIDIA A100
Lieu d'origine :
CHINE
Quantité minimum d'achat :
1 PCS
Modalités de paiement :
L/C, D/A, D/P, T/T
Capacité d'approvisionnement :
20PCS
Heure de livraison :
15-30 jours de mot
Fournisseur de contact
Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail
Carte graphique NVIDIA Scientific GPU Tesla A100 40 Go pour station de travail

Beijing Plink AI Technology Co., Ltd

Active Member
3 Années
beijing, beijing
Depuis 2009
Type d'entreprise :
Manufacturer, Agent, Importer, Exporter, Trading Company
Total annuel :
1500000-2000000
Nombre de salariés :
10~30
Niveau de certification :
Active Member
Fournisseur de contact
Exigence de soumission