NVIDIA DGX™ H200 は、AI 対応の高性能製品であり、企業のビジネスイノベーションと最適化を支援します。
NVIDIA DGX H200は、生成AI、自然言語処理、ディープラーニングなどの大規模なワークロードに対応するため、合計1,128GBという広大なGPUメモリを備えています。
141GBのGPUメモリ「NVIDIA H200 TensorコアGPU」が8基搭載されています。
その画期的なパフォーマンスにより、これからの先端技術を効率的にサポートします。

また、NVIDIA DGX H200は、AIのスループットを最大化するよう設計されており、自然言語処理、レコメンダーシステム、データ分析などの分野で企業が画期的な成果を達成するための、高度に洗練されたスケーラブルなプラットフォームを提供します。このシステムにより、企業は革新的なAIソリューションを迅速かつ効率的に実現できます。

人工知能(AI)は、難しいビジネス課題を解決するための主要なアプローチとなっています。
顧客サービスの向上、サプライチェーンの最適化、ビジネスインテリジェンスの抽出、生成AIやその他のトランスフォーマーモデルを用いた最先端の製品やサービスの設計など、AIはほぼすべての業界でイノベーションを実現する手段として使われています。

NVIDIA DGX H200 は、NVIDIA H200 Tensor コア GPU の画期的なパフォーマンスにより高速化された、AI 対応の高性能GPUシステムです。
NVIDIA DGX H200 を導入して、AI の未来を切り開きましょう!

★ 出荷開始までにスペック、価格、サポート内容等は変更される場合があります。ご了承ください。

NVIDIA DGX H200
主な特徴

1. 圧倒的なGPUメモリとパフォーマンス

・141GBのメモリを持った「NVIDIA H200 TensorコアGPU」を8基搭載し、合計1,128GBのGPUメモリを実現。大規模なデータセットを効率的に処理します。

・32 petaFLOPS の AI パフォーマンスを提供し、前世代と比較して2倍の速度を実現

2. 高度なスケーラビリティ

・AIのスループットを最大化するために設計された高度にスケーラブルなシステム

・高速ネットワークとスケーラビリティにより、AI スケーリングの障壁を打ち破ります。

3. 完全統合型ソリューション

・NVIDIA Base Command™ や NVIDIA AI Enterprise ソフトウェア スイートが含まれ、専門家のサポートを受けることができます

・これにより、企業は最も大きく複雑なビジネス問題をAIで解決することができます。

技術仕様

GPU
NVIDIA H200 GPU×8基搭載、合計 GPU メモリ 1,128GB

ネットワーク
10 x NVIDIA ConnectX®-7、400Gb/秒のネットワークインターフェイス

プロセッサ
デュアル Intel Xeon Platinum 8480C プロセッサ、合計 112 個のコア

ストレージ
30TB NVMe SSD、最高のパフォーマンスのための高速ストレージ

NVIDIA DGX H200

image-nvidia-dgx-h200
NVIDIA DGX H200
AIセンターオブエクセレンスの第一歩

NVIDIA DGX H200 を使って、AIセンターオブエクセレンスを構築しましょう。
DGX H200 は、NVIDIA Base Command™ や NVIDIA AI Enterprise ソフトウェアスイートを含む、完全統合型のハードウェアおよびソフトウェアソリューションです。また、NVIDIA DGXperts から専門家のアドバイスを受けることもできます。

AIスケーリングの障壁を打ち破る

NVIDIA DGX H200 アーキテクチャは、32 petaFLOPS のAIパフォーマンスを提供し、前世代と比較して2倍の速度を誇るネットワークと高速なスケーラビリティを備えています。
このソリューションは、生成AI、自然言語処理、ディープラーニングによるレコメンデーションモデルなど、大規模なワークロードに対応できるよう強化されています。

リーダーシップクラスのインフラを思いのままに

NVIDIA DGX H200 のパワーを、オンプレミス、コロケーション、またはマネージドサービスプロバイダーからのレンタルなど、さまざまな方法で体験しましょう。
さらに、DGX対応のライフサイクル管理により、組織は予測可能な財務モデルを手に入れ、最先端のデプロイを維持することができます。

NVIDIA DGX H200
実証済みインフラ標準 / NVIDIA Base Command 搭載

NVIDIA Base CommandはDGXプラットフォームを強力にサポートし、組織がNVIDIAの最新ソフトウェアイノベーションを最大限に活用できるようにします。
企業は、エンタープライズグレードのオーケストレーションとクラスタ管理、計算、ストレージ、ネットワークインフラを加速するライブラリ、およびAIワークロードに最適化されたオペレーティングシステムを含む実証済みのプラットフォームを通じて、DGXインフラのフルポテンシャルを引き出すことができます。

さらに、DGXインフラには、AIの開発と展開を簡素化するために最適化されたソフトウェアスイートであるNVIDIA AI Enterpriseが含まれています。

nvidia-dgx-software-stack_2024

NVIDIA DGX H200 スペック

「NVIDIA DGX H200」と、NVIDIA DGXシリーズ「NVIDIA DGX B200」、「NVIDIA DGX H100」、「NVIDIA DGX A100」のスペックを比較してみましょう。

NVIDIA DGX H200NVIDIA DGX B200NVIDIA DGX H100NVIDIA DGX A100
GPUNVIDIA H200 Tensor Core GPU
× 8基
NVIDIA Blackwell GPU
× 8基
NVIDIA H100 Tensor Core GPU
× 8基
NVIDIA A100 Tensor Core GPU
× 8基
GPUメモリTotal 1,128 GBTotal 1,440 GBTotal 640 GBTotal 640 GB
性能32 petaFLOPS FP872 ペタ FLOPSトレーニング
144 ペタ FLOPS 推論
32 petaFLOPS FP8AIで 5 petaFLOPS
INT8で 10petaFLOPS
NVIDIA NVSwitches4246
CPUDual Intel® Xeon® Platinum 8480C プロセッサ
(合計112コア、2.0 GHz (ベース)、3.8 GHz (最大ブースト)
Dual Intel® Xeon® Platinum 8570 プロセッサ
(合計 112 コア)、2.1 GHz (ベース)、
4 GHz (最大ブースト)
Dual Intel® Xeon® P latinum 8480C
プロセッサ(合計 112 コア)、2.0 GHz
(ベース)、3.8 GHz (最大ブースト)
Dual AMD Rome 7742
2.25 GHz(base),
​3.4 GHz(max boost)
Total 128
 コア
システムメモリ2 TB4 TB2 TB2 TB
ネットワーク4 個の OSFP ポートで 8 基のシングル ポート
NVIDIA ConnectX-7 VPI
> 400 Gb/秒の InfiniBand/Ethernet

2 基のDual-Port QSFP112 NVIDIA ConnectX-7 VP I
> 400 Gb/秒のInfiniBand/Ethernet

10 Gb/秒 オンボード NIC(RJ 45 搭載)
100 Gb/秒のEthernet NIC
ホスト ベースボード管理コントローラー
(BMC)(RJ 45 搭載)
4 個の OSFP ポートで 8 個のシングルポートNVIDIA ConnectX-7 VPI
> 400 Gb/秒の InfiniBand/Ethernet

2 基のDual-Port QSFP112 NVIDIA BlueField-3 DPU
> 400 Gb/秒の InfiniBand/Ethernet

10 Gb/秒 オンボード NIC (RJ45 搭載)
100 Gb/秒のDual-Port Ethernet NIC
ホスト ベースボード管理コントローラー
(BMC)(RJ 45 搭載)
4 個の OSFP ポートで 8 基のシングル ポート
NVIDIA ConnectX-7 VPI
> 400 Gb/秒の InfiniBand/Ethernet

2 基のDual-Port QSFP112 NVIDIA ConnectX-7 VP I
> 400 Gb/秒のInfiniBand/Ethernet

10 Gb/秒 オンボード NIC(RJ 45 搭載)
100 Gb/秒のEthernet NIC
ホスト ベースボード管理コントローラー
(BMC)(RJ 45 搭載)
Single-Port
Mellanox ConnectX-6
VPI
200Gb/s HDR
InfiniBand × 8
Dual-Port
Mellanox ConnectX-6
VPI
10/25/50/100/200 Gb/s Ethernet × 2
ストレージOS: 1.9 TB M.2 NVMe drives × 2
内部ストレージ: 30 TB (3.84 TB × 8)
U.2 NVMe drives
OS: 1.9 TB M.2 NVMe drives × 2
内部ストレージ: 30 TB (3.84 TB × 8)
U.2 NVMe drives
OS: 1.92 TB M.2 NVMe E drives × 2
内部ストレージ: 30 TB (3.84 TB × 8)
U.2 NVMe drives
OS: 1.92 TB M.2 NVMe drives × 2
内部ストレージ:30 TB (3.84 TB × 8)
U.2 NVMe drives
ソフトウェアNVIDIA AI Enterprise – AIソフトウェア
NVIDIA B ase Command - オーケストレーショ
ン、スケジューリング、クラスタ管理
DGX OS / Ubuntu / Red HatエンタープライズLinux / Rockyオペレーティングシステム
NVIDIA AI Enterprise – AIソフトウェア
NVIDIA B ase Command - オーケストレーショ
ン、スケジューリング、クラスタ管理
DGX OS / Ubuntu
NVIDIA AI Enterprise – AIソフトウェア
NVIDIA B ase Command - オーケストレーショ
ン、スケジューリング、クラスタ管理
DGX OS / Ubuntu
Ubuntu Linux OS
Red Hat Enterprise Linux 7,8 / CentOS​ 7,8
最大消費電力最大 10.2 kW最大 14.3 kW最大 10.2 kW最大 6.5 kW
運用温度範囲5 ℃ - 30 ℃5 ℃ - 30 ℃5 ℃ - 30 ℃5 ℃ - 30 ℃
サイズ高さ:356 mm
幅:482.2 mm
奥行:897.1 mm
高さ: 444 mm
幅: 482.2 mm
奥行: 897.1 mm
高さ:356 mm
幅:482.2 mm
奥行:897.1 mm
高さ: 264.0 mm
幅: 482.3 mm
奥行: 897.1 mm
NVIDIA DGX H200 スペック
企業向けサポート

・ハードウェアとソフトウェアの 3 年間のエンタープライズ Business-Standardサポート
・年中無休のエンタープライズ サポート ポータル アクセス
・現地営業時間中のライブ エージェント サポート

* スペックは予告なく変更される場合があります。

NVIDIA DGX H200 価格

教育機関、NVIDIA Inceptionパートナー、一般企業・研究機関向けの価格がございます。
また、3年間の企業向けサポートのご購入が必要になります。
(サポート期間は4年、5年も選択可能です。)

詳しくはお問い合わせ下さい。

★ 出荷開始までにスペック、価格、サポート内容等は変更される場合があります。ご了承ください。

見積依頼・お問い合わせはこちら

製品に関するご質問・ご相談など、お気軽にお問い合わせください。

NVIDIA認定のエリートパートナー「GDEPソリューションズ」は、
​ お客様の用途に最適な製品のご提案から導入までサポートします。