La fondation du raisonnement de l'IA dans les usines d'IA.
NVIDIA DGX™ B300 est une solution performante pour les innovateurs en IA, offrant les performances hyperscalaires nécessaires à la construction d'une usine d'IA moderne. Équipé des GPU NVIDIA Blackwell Ultra, le DGX B300 offre des performances FP4 1,5 fois supérieures et des performances d'attention 2 fois supérieures à celles du DGX B200, le tout dans un nouveau format conçu pour s'intégrer parfaitement dans les Data Centers modernes. Il est compatible avec les racks NVIDIA MGX™ et les entreprises traditionnelles, avec une pile logicielle complète, il simplifie et rationalise le déploiement de l'IA, et permet à toute entreprise de fonctionner comme un hyperscaler.
Le DGX B300 repose sur les GPU NVIDIA Blackwell Ultra et fournit aux entreprises une plateforme unique permettant d'accélérer l'entraînement et l'inférence des grands modèles de langage (LLM). Grâce à ses performances d'inférence de 144 pétaFLOPS, ce système permet à toutes les entreprises de fonctionner comme un hyper-scalier.
Avec plusieurs options d'alimentation parmi lesquelles choisir, NVIDIA DGX B300 est conçu pour être le supercalculateur d'IA le plus écoénergétique, offrant une efficacité énergétique et des performances par watt inégalées.
NVIDIA DGX B300 a été repensé pour les Data Centers modernes et peut être déployé pour la première fois sur les racks NVIDIA MGX. Cette nouvelle norme du secteur occasionne un changement dans l'ingénierie des Data Centers en facilitant plus que jamais l'obtention de performances et d'une efficacité révolutionnaires.
Découvrez les nouvelles fonctionnalités et capacités, notamment les options d'alimentation en courants alternatif etr continu, qui permettent à DGX B300 de s'intégrer facilement à n'importe quel Data Center moderne, avec une flexibilité de déploiement plus vaste que jamais.
| GPU | 8 NVIDIA Blackwell Ultra SXM |
| CPU | Processeurs Intel® Xeon® 6776P |
| Mémoire GPU totale | 2,1 To |
| Performances | Tensor Core FP4 : 144 PFLOPS | 108 PFLOPS* Tensor Core FP8 : 72 PFLOPS** |
| Système NVIDIA NVLink™ Switch | 2x |
| Bande passante NVIDIA NVLink | Bande passante globale de 14,4 To/s |
| Mise en réseau | 8 ports OSFP desservant 8 ports uniques NVIDIA ConnectX-8 VPI
|
| Réseau de gestion | Carte réseau 1 GbE intégrée avec RJ45 Contrôleur BMC hôte 1 GbE RJ45 |
| Stockage | Système d'exploitation : 2 x 1,9 To NVMe M.2 Stockage interne : 8 x 3,84 To NVMe E1. V |
| Consommation | ~14 kW |
| Logiciel | NVIDIA AI Enterprise : logiciel d'IA optimisé NVIDIA Mission Control : opérations et orchestration de Data Center d'IA avec la technologie NVIDIA Run:ai NVIDI A DGX OS : système d'exploitation Prend en charge Red Hat Enterprise Linux/Rocky/Ubuntu |
| Unités de rack | 10U |
| Assistance | Assistance matérielle et logicielle standard pendant trois ans |
|
*Spécification indiquée dans sparse | dense |
|
NVIDIA Blackwell Ultra est l'architecture GPU pour les systèmes les plus puissants d'inférence d'IA disponibles à ce jour, dont NVIDIA DGX B300 et DGX GB300. Les systèmes Blackwell Ultra offrent un débit par mégawatt jusqu'à 50 fois plus élevé et un coût par jeton jusqu'à 35 fois plus faible que que ceux de NVIDIA Hopper™ pour les charges de travail agentiques à faible latence grâce à leur conception matérielle et logicielle, selon les benchmarks SemiAnalysis InferenceX (1er trimestre 2026).
Oui. Les grands espaces mémoire disponibles avec les systèmes Blackwell Ultra permettent de procéder à l'inférence DeepSeek-R1 (671B MoE) sur un nombre moindre de GPU avec un coût de parallélisme tensoriel réduit. Dans MLPerf Inference version 6.0 (avril 2026), les systèmes alimentés par des GPU NVIDIA Blackwell Ultra ont offert le débit le plus élevé dans la gamme la plus large de modèles et de scénarios. Sur DeepSeek-R1, les systèmes Blackwell Ultra ont fourni 2,5 millions de jetons par seconde, soit un débit de jetons jusqu'à 2,7 fois plus élevé par rapport aux premiers résultats de Blackwell Ultra remontant à tout juste six mois, grâce aux mises à jour logicielles de NVIDIA TensorRT™-LLM.
NVIDIA Blackwell Ultra fournit une inférence d'IA pour 0,24 $ par million de jetons à 102 TPS/utilisateur sur DeepSeek-R1 à l'aide de NVIDIA Dynamo TensorRT-LLM et MTP, selon les benchmarks SemiAnalysis InferenceX d'avril 2026.
Déployez dès aujourd'hui NVIDIA DGX B300 sur site, dans une installation de colocation ou dans le Cloud par l'intermédiaire de l'un de nos partenaires.
La plateforme NVIDIA DGX est la norme éprouvée sur laquelle repose l'IA d'entreprise.
Discutez de vos besoins professionnels avec un spécialiste en produits NVIDIA.