NVIDIA® A30 Module 24GB HBM2 ECC Passive
ACCÉLÉRATION DE CALCUL POLYVALENTE POUR LES SERVEURS D’ENTREPRISE GRAND PUBLIC
Apportez des performances accélérées à chaque charge de travail d’entreprise avec les GPU NVIDIA A30 Module 24GB Tensor Core. Avec l’architecture NVIDIA Ampere Tensor Cores et le GPU multi-instance (MIG), il offre des accélérations en toute sécurité sur diverses charges de travail, y compris l’inférence d’IA à grande échelle et les applications de calcul haute performance (HPC). En combinant une bande passante mémoire rapide et une faible consommation d’énergie dans un facteur de forme PCIe optimisé pour les serveurs grand public, A30 permet un centre de données élastique et offre une valeur maximale aux entreprises.
Le GPU NVIDIA A30 Tensor Core offre une plate-forme polyvalente pour les charges de travail d’entreprise grand public, telles que l’inférence d’IA, la formation et le HPC. Avec la prise en charge de TF32 et FP64 Tensor Core, ainsi qu’une pile de solutions logicielles et matérielles de bout en bout, A30 garantit que la formation à l’IA et les applications HPC peuvent être rapidement traitées. Le GPU multi-instance (MIG) garantit la qualité de service (QoS) avec des GPU sécurisés, partitionnés en matériel et de la bonne taille pour toutes ces charges de travail pour divers utilisateurs, en utilisant de manière optimale les ressources de calcul GPU.
Points forts
Pic FP64 | 5.2 TFLOPS |
Noyau de tenseur Peak FP64 | 10.3 TFLOPS |
Pic FP32 | 10.3 TFLOPS |
TF32 Tensor Noyau | 82 TFLOPS | 165 TFLOPS* |
BFLOAT16 Tenseur Noyau | 165 TFLOPS | 330 TFLOPS* |
Noyau tenseur Peak FP16 | 165 TFLOPS | 330 TFLOPS* |
Noyau de tenseur de pointe INT8 | 330 HAUTS | 661 HAUTS* |
Mémoire GPU | 24 Go HBM2 |
Bande passante de la mémoire | 933 Go/s |
Solutions thermiques | Passif |
Consommation électrique maximale | 165 W |
Interface système | PCIe génération 4.0 | 64 Go/s |
Prise en charge des GPU multi-instances | Oui |
Prise en charge de vGPU | OuiLe GPU NVIDIA A30 Tensor Core offre une plate-forme polyvalente pour les charges de travail d’entreprise grand public, telles que l’inférence d’IA, la formation et le HPC. |