With over 600 HPC applications accelerated—including 15 out of the top 15—and all deep learning frameworks, Tesla P100 with NVIDIA NVLink delivers up to a 50X performance boost.
NVIDIA Tesla P100
Le Tout Premier Supercalculateur IA Pour Data Center
Today's data centers rely on many interconnected commodity compute nodes, which limits high performance computing (HPC) and hyperscale workloads. NVIDIA® Tesla® P100 taps into NVIDIA Pascal™ GPU architecture to deliver a unified platform for accelerating both HPC and AI, dramatically increasing throughput while also reducing costs.
With over 600 HPC applications accelerated—including 15 out of the top 15—and all deep learning frameworks, Tesla P100 with NVIDIA NVLink delivers up to a 50X performance boost.
De ses plus infimes composants matériels à ses fonctionnalités logicielles les plus avancées, chaque aspect du NVIDIA Tesla P100 concilie performance et innovation. Ses technologies de pointe et ses performances foudroyantes en font le nœud de calcul le plus rapide au monde.
La puissante architecture NVIDIA Pascal™ du Tesla P100 lui permet de fournir les performances les plus élevées de l’industrie pour les applications HPC et les infrastructures Hyperscale. Avec plus de 21 téraflops de performances FP16, l’architecture NVIDIA Pascal a été spécialement conçue pour offrir de nouvelles capacités en matière de Deep Learning. Pascal délivre jusqu'à 5 téraflops de performances en double précision (10 téraflops en simple précision) pour les applications HPC.
L’accélérateur Tesla P100 permet d’intégrer les données et les opérations de calcul sur le même paquet grâce à une mémoire CoWoS® (Chip-on Wafer-on-Substrate) à technologie HBM2 délivrant jusqu’à 3 fois plus de performances par rapport à l'architecture NVIDIA Maxwell™.
Les interfaces interconnectées ont longtemps limité les performances des applications professionnelles. Aujourd’hui, la technologie d’interconnexion NVIDIA NVLink™ à haute vitesse vous permet de mettre à l’échelle vos applications sur des GPU multiples en bénéficiant de performances 5 fois plus élevées qu’avec les meilleures technologies actuelles.
Remarque : cette technologie n'est pas disponible avec les produits Tesla P100 PCIe.
Le moteur de migration de pages permet aux développeurs de se concentrer sur les performances de calcul sans perdre de temps sur la gestion des flux de données. Les applications peuvent désormais aller au-delà de la mémoire physique du GPU et utiliser jusqu’à 2 téraoctets de mémoire vive.
| P100 pour serveurs PCIe | P100 pour serveurs optimisés NVLink | |
|---|---|---|
| Performances en double précision | 4,7 TFlops | 5,3 TFlops |
| Performances en simple précision | 9,3 TFlops | 10,6 TFlops |
| Performances en half précision | 18,7 TFlops | 21,2 TFlops |
| Bande passante d'interconnexion NVIDIA NVLink™ | - | 160 Go/s |
| Bande passante d'interconnexion PCIe x16 | 32 Go/s | 32 Go/s |
| Capacité mémoire stackée CoWoS HBM2 | 16 Go ou 12 Go | 16 Go |
| Bande passante mémoire stackée CoWoS HBM2 | 732 Go/s ou 549 Go/s | 732 Go/s |
| Programmation optimisée avec moteur de migration de pages | ||
| Protection ECC pour fiabilité renforcée | ||
| Optimisation serveur pour déploiements Data Center |
The World's Fastest GPU Accelerators for HPC and
Deep Learning.
Find an NVIDIA Accelerated Computing Partner through our
NVIDIA Partner Network (NPN).