NVIDIA最大の開発者向けカンファレンス「NVIDIA GTC 2024」(3月開催)において、新しいGPUアーキテクチャ「Blackwell」が発表されましたが、Blackwell GPUが搭載された「NVIDIA DGX™ B200」が年内に出荷開始予定です。
NVIDIA DGX B200は、NVIDIA DGXシリーズの最新モデルとなります。受注開始!

NVIDIA DGX B200は、企業規模を問わず、AI 導入のどの段階においても、パイプラインの開発から導入までを可能にする統合 AI プラットフォームです。
8 基の Blackwell GPU で構成された NVIDIA DGX B200 は、合計で1,440GBの膨大なGPUメモリと、毎秒 64 テラバイト (TB/秒) のメモリ帯域幅で比類なき生成 AI パフォーマンスを実現し、あらゆる企業において AI ワークロード処理を高速化します。

NVIDIA DGX B200は、前世代と比較してトレーニング性能は 3 倍、推論性能は 15 倍の最先端の性能を実現しました。

NVIDIA Blackwell GPU アーキテクチャを採用した DGX B200 は、大規模言語モデル、レコメンダー システム、チャットボットなどの多様なワークロードを処理することができ、AI トランスフォーメーションの加速を目指す企業に最適です。

★ 出荷開始までにスペック、価格、サポート内容等は変更される場合があります。ご了承ください。

NVIDIA DGX B200
主な特徴

8 基の NVIDIA Blackwell GPUで構築

1.4TB(1,440GB)の GPU メモリ空間

72 ペタ FLOPS のトレーニング パフォーマンス

144 ペタ FLOPS の推論パフォーマンス

デュアル 第 5 世代 Intel® Xeon® スケーラブル プロセッサ搭載

NVIDIA AI Enterprise 、NVIDIA Base Command™ソフトウェアが含まれています

NVIDIA DGX B200
統合 AI プラットフォーム
~ 開発から展開までを支える単一のプラットフォーム ~

AI ワークフローが高度化するにつれて、トレーニングからファインチューンや推論に至る AI パイプラインの全ての段階で、企業が大規模なデータセットを処理する必要性も高
まっています。そのためには、膨大な計算処理能力が必要となります。

NVIDIA DGX B200 により、企業はワークフローを高速化するために構築された単一の統合プラットフォームで開発者・技術者を支援することができます。
次世代の生成 AI のために強化されたDGX B200 で、企業は日々の業務や顧客体験向上のためのAI 開発をさらに加速することが可能になります。

eyecatch-nvidia-dgx-b200
NVIDIA DGX B200
開発からデプロイまでのパイプラインのための
1 つのプラットフォーム

企業は、トレーニングからファインチューニング、推論まで、AI パイプラインのあらゆる段階で複雑な AI データセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX B200 があれば、ワークフローを高速化するように作られた 1 つのプラットフォームを開発者に与えることができます。

究極の AI パフォーマンス

NVIDIA Blackwell アーキテクチャの高度なコンピューティングを活用する DGX B200 は、前世代となるDGX H100 と比較してそのトレーニング パフォーマンスが 3 倍、推論パフォーマンスが 15 倍となります。
NVIDIA DGX BasePOD™ や、NVIDIA DGX SuperPOD™ の土台である DGX B200 は、業界をリードするパフォーマンスをあらゆるワークロードに提供します。

実証済みのインフラストラクチャ標準

NVIDIA DGX B200 は、NVIDIA Base Command および NVIDIA AI Enterprise ソフトウェアを含む完全な NVIDIA AI ソフトウェア スタック、豊富なサードパーティ サポートのエコシステム、および NVIDIA プロフェッショナル サービスによる専門家のアドバイスへのアクセスを含む、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。

NVIDIA DGX B200
パフォーマンス

NVIDIA社は、企業が直面する最も複雑な AI 問題に対処するための、世界で最もパワフルな次世代スーパーコンピューターの設計に取り組んでいます。
DGX B200 はNVIDIA アクセラレーテッド コンピューティング プラットフォームの最新製品であり、その取り組みを示すものです。

革新的な NVIDIA Blackwell アーキテクチャによる高度なコンピューティングの進化により、DGX B200 は DGX H100 と比較してトレーニング性能が 3 倍、推論性能が 15 倍となります。NVIDIA DGX POD™ リファレンスアーキテクチャの基盤である DGX B200 は NVIDIA DGX BasePOD™ と NVIDIA DGX SuperPOD™ を支える優れた高速性と拡張性を提供し、手間のかからない AIインフラ ソリューションで最高レベルのパフォーマンスを実現します。

リアル タイム
大規模言語モデル推論

graph_nvidia-dgx-b200_real-time

予想されるパフォーマンスは変更される可能性があります。
トークン間のレイテンシ (TTL) = 50ms リアルタイム、最初のトークンのレイテンシ (FTL) = 5ms、入力シーケンスの長さ = 32,768、出力シーケンスの長さ = 1,028、8x 8ウェイ HGX H100 GPU 空冷と 1x 8ウェイ DGX B200 空冷の比較、GPU あたりのパフォーマンス比較​。

大幅に強化された
AIトレーニング性能

graph_nvidia-dgx-b200_training-speedup

予想されるパフォーマンスは変更される可能性があります。
32,768 GPU スケール、4,096x 8ウェイ DGX H100 空冷クラスター: 400G IB ネットワーク、4,096x 8ウェイ DGX B200 空冷クラスター: 400G IB ネットワーク。

NVIDIA DGX B200
実証済みインフラ標準 / NVIDIA Base Command 搭載

NVIDIA DGX B200 は、NVIDIA Blackwell GPU を搭載した世界初のシステムであり、大規模言語モデルや自然言語処理など、世界で最も複雑な AI 問題を処理するための画期的なパフォーマンスを提供します。
NVIDIA DGX B200 は、完全に最適化されたハードウェアおよびソフトウェア のプラットフォームです。
NVIDIA AI ソフトウェアのフルスタックを備え、多様なサードパーティのサポートを受けられる充実したエコシステムを利用でき、さらに NVIDIA プロフェッショナル サービスにより専門家からのアドバイスを受けることができます。
組織は AI を利用し、最大かつ最も複雑なビジネス問題を解決できます。

nvidia-dgx-software-stack_2024

NVIDIA Base Command 搭載

NVIDIA Base Command は DGX プラットフォームを強化し、NVIDIA ソフトウェアがもたらすイノベーションを企業が最大級活用できるようにします。企業は、エンタープラ
イズグレードのオーケストレーションとクラスター管理、コンピューティング、ストレージ、ネットワークのインフラを高速化するライブラリ、AI ワークロード向けに最適化されたオ
ペレーティング システムを含む実証済みのプラットフォームで、DGX インフラの可能性を最大限まで引き出すことができます。
また、DGX インフラには、AI の開発と展開を効率化するために最適化された一連のソフトウェア、NVIDIA AI Enterprise も含まれています。

NVIDIA DGX B200 スペック

NVIDIA DGXシリーズ「NVIDIA DGX B200」、「NVIDIA DGX H100」、「NVIDIA DGX A100」のスペックを比較してみましょう。

NVIDIA DGX B200NVIDIA DGX H100NVIDIA DGX A100
GPUNVIDIA Blackwell GPU
× 8基
NVIDIA H100 Tensor Core GPU
× 8基
NVIDIA A100 Tensor Core GPU
× 8基
GPUメモリTotal 1,440 GBTotal 640 GBTotal 640 GB
性能72 ペタ FLOPSトレーニング
144 ペタ FLOPS 推論
32 petaFLOPS FP8AIで 5 petaFLOPS
INT8で 10petaFLOPS
NVIDIA NVSwitches246
CPUDual Intel® Xeon® Platinum 8570 プロセッサ
(合計 112 コア)、2.1 GHz (ベース)、
4 GHz (最大ブースト)
Dual Intel® Xeon® P latinum 8480C
プロセッサ(合計 112 コア)、2.0 GHz
(ベース)、3.8 GHz(最大ブースト)
Dual AMD Rome 7742
2.25 GHz(base),
​3.4 GHz(max boost)
Total 128
 コア
システムメモリ4 TB2 TB2 TB
ネットワーク4 個の OSFP ポートで 8 個のシングルポートNVIDIA ConnectX-7 VPI
> 400 Gb/秒の InfiniBand/Ethernet

2 基のDual-Port QSFP112 NVIDIA BlueField-3 DPU
> 400 Gb/秒の InfiniBand/Ethernet

10 Gb/秒 オンボード NIC (RJ45 搭載)
100 Gb/秒のDual-Port Ethernet NIC
ホスト ベースボード管理コントローラー
(B M C)(RJ 45 搭載)
4 個の OSFP ポートで 8 基のシングル ポート
NVIDIA ConnectX-7 VPI
> 400 Gb/秒の InfiniBand/Ethernet

2 基のDual-Port QSFP112 NVIDIA ConnectX-7 VP I
> 400 Gb/秒のInfiniBand/Ethernet

10 Gb/秒 オンボード NIC(RJ 45 搭載)
100 Gb/秒のEthernet NIC
ホスト ベースボード管理コントローラー
(B M C)(RJ 45 搭載)
Single-Port
Mellanox ConnectX-6
VPI
200Gb/s HDR
InfiniBand × 8
Dual-Port
Mellanox ConnectX-6
VPI
10/25/50/100/200 Gb/s Ethernet × 2
ストレージOS: 1.92 TB M.2 NVMe drives × 2
内部ストレージ: 30 TB (3.84 TB × 8)
U.2 NVMe drives
OS: 1.92 TB M.2 NVMe E drives × 2
内部ストレージ: 30 TB (3.84 TB × 8)
U.2 NVMe drives
OS: 1.92 TB M.2 NVMe drives × 2
内部ストレージ:30 TB (3.84 TB × 8)
U.2 NVMe drives
ソフトウェアNVIDIA AI Enterprise – AIソフトウェア
NVIDIA B ase Command - オーケストレーショ
ン、スケジューリング、クラスタ管理
DGX OS / Ubuntu
NVIDIA AI Enterprise – AIソフトウェア
NVIDIA B ase Command - オーケストレーショ
ン、スケジューリング、クラスタ管理
DGX OS / Ubuntu
Ubuntu Linux OS
Red Hat Enterprise Linux 7,8 / CentOS​ 7,8
最大消費電力最大 14.3 kW最大 10.2 kW最大 6.5 kW
運用温度範囲5 ℃ - 30 ℃5 ℃ - 30 ℃5 ℃ - 30 ℃
サイズ高さ: 444 mm
幅: 482.2 mm
奥行: 897.1 mm
高さ:356 mm
幅:482.2 mm
奥行:897.1 mm
高さ: 264.0 mm
幅: 482.3 mm
奥行: 897.1 mm
NVIDIA DGX B200 スペック
企業向けサポート

・ハードウェアとソフトウェアの 3 年間のエンタープライズ Business-Standardサポート
・年中無休のエンタープライズ サポート ポータル アクセス
・現地営業時間中のライブ エージェント サポート

* スペックはは予告なく変更される場合があります。

NVIDIA DGX B200 カタログ

NVIDIA DGX B200 のカタログをダウンロードできます。

NVIDIA DGX B200 価格

教育機関、NVIDIA Inceptionパートナー、一般企業・研究機関向けの価格がございます。
また、3年間の企業向けサポートのご購入が必要になります。
(サポート期間は4年、5年も選択可能です。)

詳しくはお問い合わせ下さい。

★ 出荷開始までにスペック、価格、サポート内容等は変更される場合があります。ご了承ください。

見積依頼・お問い合わせはこちら

製品に関するご質問・ご相談など、お気軽にお問い合わせください。

NVIDIA認定のエリートパートナー「GDEPソリューションズ」は、
​ お客様の用途に最適な製品のご提案から導入までサポートします。