Die KI-Fabrik für die intelligente Entscheidungsfindung mit KI.
NVIDIA DGX™ B300 ist das Kraftpaket für KI-Innovatoren und bietet die hyperskalierende Leistung, die für den Aufbau einer modernen KI-Fabrik erforderlich ist. DGX B300 wird von NVIDIA Blackwell Ultra-GPUs unterstützt und steigert die dichte FP4-Leistung um das 1,5-Fache und die Aufmerksamkeitsleistung um das 2-Fache gegenüber DGX B200, und all das in einem neuen Formfaktor, der nahtlos in moderne Rechenzentren passt. Das System ist mit NVIDIA MGX™ und herkömmlichen Unternehmens-Racks sowie mit Full-Stack-Software kompatibel. Es vereinfacht und optimiert die KI-Bereitstellung und ermöglicht jedem Unternehmen den Betrieb wie bei einem Hyperscaler.
Der DGX B300 baut auf Blackwell-Ultra-GPUs auf und bietet Unternehmen eine einzelne Plattform, um das Training und die Inferenz großer Sprachmodelle (LLM) zu beschleunigen. Das System bietet 144 PetaFLOPS Inferenzleistung und ermöglicht es jedem Unternehmen, wie ein Hyperscaler zu arbeiten.
Mit mehreren zur Auswahl stehenden Optionen für die Energieversorgung ist der NVIDIA DGX B300 als energieeffizientester KI-Supercomputer konzipiert, der sich durch beispiellose Energieeffizienz und Verarbeitungsleistung pro Watt auszeichnet.
Der DGX B300 wurde für moderne Rechenzentren neu designt und kann erstmals in NVIDIA-MGX-Racks eingesetzt werden. Dieser neue Branchenstandard führt zu Veränderungen in der Rechenzentrumsentwicklung und macht es einfacher denn je, bahnbrechende Leistung und Effizienz zu erzielen.
Erleben Sie eine bisher unerreichte Flexibilität bei der Bereitstellung – mit den neuen Funktionen und Möglichkeiten, einschließlich AC- und DC-Netzteiloptionen, lässt sich DGX B300 leicht in jedes moderne Rechenzentrum integrieren.
| GPUs | 8 x NVIDIA Blackwell Ultra SXM |
| CPU | Intel® Xeon® 6776P-Prozessoren |
| GPU-Gesamtspeicher | 2,1 TB |
| Leistung | FP4 Tensor-Recheneinheit: 144 PFLOPS | 108 PFLOPS* FP8 Tensor-Recheneinheit: 72 PFLOPS** |
| NVIDIA NVLink™ Switch-System | 2-mal |
| Bandbreite von NVIDIA NVLink | 14,4 TB/s Gesamtbandbreite |
| Networking | 8 x OSFP-Ports für 8 x NVIDIA ConnectX-8 VPI-Adapter mit einem Port
|
| Management-Netzwerk | 1 GbE Onboard-NIC mit RJ45 1 GbE RJ45 Host Baseboard Management Controller (BMC) |
| Speicher | OS: 2 x 1,9 TB NVMe M.2 Interner Datenspeicher: 8 x 3,84 TB NVMe E1. T |
| Energieverbrauch | ~14 kW |
| Software | NVIDIA AI Enterprise – Optimierte KI-Software NVIDIA Mission Control – Betrieb und Orchestrierung von KI-Rechenzentren mit NVIDIA Run:ai-Technologie NVIDIA DGX OS – Betriebssystem Unterstützt von Red Hat Enterprise Linux/Rocky/Ubuntu |
| Rack-Einheiten | 10U |
| Support | Dreijähriger Hardware- und Software-Support nach Unternehmensstandard |
|
*Spezifikation dargestellt in Sparse | Dense |
|
NVIDIA Blackwell Ultra ist die GPU-Architektur für die derzeit leistungsstärksten Systeme für KI-Inferenz, darunter NVIDIA DGX B300 und DGX GB300. Blackwell Ultra-Systeme bieten bis zu 50-mal höheren Durchsatz pro Megawatt und bis zu 35-mal geringere Kosten pro Token als NVIDIA Hopper™ für agentische Workloads mit geringer Latenz durch Hardware-Software-Co-Design, laut SemiAnalysis InferenceX-Benchmarks (Q1 2026).
Ja. Die großen Speicherplätze, die mit Blackwell Ultra-basierten Systemen verfügbar sind, ermöglichen DeepSeek-R1 (671B MoE)-Inferenz auf weniger GPUs mit geringerem Tensor-Parallelitäts-Overhead. In MLPerf Inference v6.0 (April 2026) boten Systeme, die von NVIDIA Blackwell Ultra-GPUs unterstützt wurden, den höchsten Durchsatz in der breitesten Palette von Modellen und Szenarien. Auf DeepSeek-R1 lieferten Blackwell Ultra-Systeme 2,5 Millionen Token pro Sekunde – ein bis zu 2,7-mal höherer Token-Durchsatz im Vergleich zu den ersten Blackwell Ultra-Ergebnissen nur sechs Monate zuvor, was auf Software-Updates für NVIDIA TensorRT™-LLM zurückzuführen ist.
NVIDIA Blackwell Ultra bietet KI-Inferenz für 0,24 US-Dollar pro Million Token bei 102 TPS/Benutzer auf DeepSeek-R1 mit NVIDIA Dynamo TensorRT-LLM und MTP, gemäß SemiAnalysis InferenceX-Benchmarks vom April 2026.
Implementieren Sie NVIDIA DGX B300 direkt an Ihrem Standort, in einer Colocation-Einrichtung oder über einen unserer Partner in der Cloud.
Die NVIDIA DGX-Plattform ist der bewährte Standard, auf dem Unternehmens-KI aufgebaut ist.
Sprechen Sie mit einem Produktspezialisten von NVIDIA über Ihre professionellen Anforderungen.