2022年後半 発売予定!NVIDIA DGX H100

2022年3月21日-24日開催のNVIDIA GTC 2022で、NVIDIA社の新しいGPUアーキテクチャNVIDIA Hopper 採用の「NVIDIA H100 GPU」が発表され、同時にH100 GPU が8基搭載された「NVIDIA DGX™ H100」も発表されました。

​NVIDIAのエリートパートナーであるGDEPソリューションズは、NVIDIA H100 GPUならびに「NVIDIA DGX H100」を国内での製品発売時期に合わせて取り扱いを開始予定です。

NVIDIA DGX H100

nvidia-dgx-h100_500
NVIDIA DGX H100

NVIDIA社は、NVIDIA H100 Tensor Core GPUを搭載した世界初のAIプラットフォーム、DGXシステム第4世代となる「NVIDIA DGX H100」を発表しました。

8基のNVIDIA H100 GPUを搭載したNVIDIA DGX H100は、NVIDIA NVLinkで1つに接続されており、新しいFP8 精度で前世代(DGX A100)の6倍以上となる「32 ペタフロップス」のAI性能・高速化を実現しました。

NVIDIA DGX H100 は世界で初めて NVIDIA H100 Tensor Core GPU を搭載したシステムであり、AI のスケールとパフォーマンスの限界を突破します。

NVIDIA ConnectX®-7 スマート ネットワーク インターフェイス カード(SmartNIC)と、NVIDIA BlueField®-3 データ プロセシング ユニット(DPU)で 6 倍のパフォーマンスと 2 倍高速なネットワーキングを実現し、NVIDIA DGX SuperPOD 向けのハイスピード スケーラビリティを提供します。この次世代アーキテクチャは、自然言語処理やディープ ラーニングによるレコメンデーション モデルなど、大規模で複雑な AI ジョブに対応できるように強化されています。

NVIDIA DGX H100 は、オンプレミスに導入して直接管理できるほか、NVIDIA DGX 対応のデータセンターへのコロケーション、NVIDIA DGX Foundry でのレンタル、NVIDIA 認定のマネージド サービス プロバイダーを介した利用が可能です。

また、DGX 対応のライフサイクル管理プログラムにより、最新のシステムの導入を維持するための予測性の高い財務モデルを利用できます。これを利用すると、忙しい IT スタッフの負担を増やすことなく、従来の IT インフラと同じように簡単に NVIDIA DGX H100 を活用できるため、明日を待たずにビジネスに活用することができます。

NVIDIA DGX H100 特徴

history-dgs-systems_500
NVIDIA DGX H100は、第4世代の「NVIDIA DGX システム」

GPUメモリTotal 640GB

NVIDIA DGX H100 は、NVIDIA H100 GPU[80GB] × 8基、640GBの大容量GPUメモリを搭載しています。
GPU 間の双方向帯域幅は 900GB/秒 を実現!

NVIDIA NVSWITCHE

NVIDIA DGX H100 は、NVSWITCHES™ × 4により前世代の1.5倍となる、7.2テラバイト/秒の双方向GPU-GPU帯域幅を実現!

ネットワーク

NVIDIA CONNECTX®-7 × 8、NVIDIA BLUEFIELD® DPU 400GB/秒 ネットワークインターフェイス × 2により、ピーク双方向ネットワーク帯域幅 1テラバイト/秒を実現!

システムメモリ

NVIDIA DGX H100 は、デュアル × 86CPU & 2テラバイトのシステムメモリにより、AI への依存が非常に高い仕事を可能にするパワフルCPUを搭載!

ストレージ

NVIDIA DGX H100 は、最大のパフォーマンスを実現する高速ストレージ 30TB NVMe SSDを搭載!

NVIDIA DGX SuperPOD

nvidia-dgx-h100-superpod_500
NVIDIA DGX SuperPOD

NVIDIA DGX H100 は、次世代 NVIDIA DGX POD および NVIDIA DGX SuperPOD といったAIデータセンター インフラストラクチャプラットフォームを構成することが可能です。

NVIDIA DGX SuperPODは、きわめて困難な AI およびハイパフォーマンス コンピューティング (HPC) ワークロードに対して、最高クラスのアクセラレーテッド インフラストラクチャと俊敏かつスケーラブルなパフォーマンスを提供し、業界で認められた結果をもたらします。

NVIDIA DGX H100 スペック

NVIDIA DGX H100のスペックは、発売前の暫定仕様になります。
更新情報が入り次第、アップデートします。

NVIDIA DGX H100 と、前世代となる NVIDIA DGX A100 のスペックを比較してみましょう。

NVIDIA DGX H100NVIDIA DGX A100
GPUNVIDIA H100 Tensor Core GPU
80 GB x 8基
NVIDIA A100 Tensor Core GPU
80 GB x 8基
GPUメモリTotal 640 GBTotal 640 GB
性能32 petaFLOPS FP8AIで 5 petaFLOPS
INT8で 10petaFLOPS
NVIDIA NVSwitches4x6
CPUDual x86Dual AMD Rome 7742
2.25 GHz(base),
​3.4 GHz(max boost)
Total 128
 コア
システムメモリ2 TB2 TB
ネットワーク4 個の OSFP ポートで 8 基の
シングルポート ConnectX-7 へ接続
400Gb/s InfiniBand/Ethernet

2 基のデュアルポート NVIDIA
BlueField-3 DPU VPI
400Gb/s InfiniBand/Ethernet x1
200Gb/s InfiniBand/Ethernet x1

10Gb/s オンボード NIC(RJ45 付き)
50Gb/s Ethernet オプション NIC
ホスト ベースボード管理コントロー
ラー(BMC)(RJ45 付き)
2x NVIDIA BlueField-3 DPU BMC
(それぞれ RJ45 コネクタで接続)
Single-Port
Mellanox ConnectX-6
VPI
200Gb/s HDR
InfiniBand × 8
Dual-Port
Mellanox ConnectX-6
VPI
10/25/50/100/200 Gb/s Ethernet × 2
ストレージOS: 1.92 TB M.2 NVMe E drives × 2
内部ストレージ:
30 TB (3.84 TB × 8)
U.2 NVMe drives
OS: 1.92 TB M.2 NVMe drives × 2
内部ストレージ:
30 TB (3.84 TB × 8)
U.2 NVMe drives
ソフトウェアDGX H100システムには、Ubuntu Linuxに基づいて
DGXソフトウェアスタック
(DGX用に最適化されたすべての必要なパッケージとドライバー)
を含むDGX OSがプリインストールされています。
オプションで、お客様はUbuntu LinuxまたはRedHat EnterpriseLinuxと
必要なDGXソフトウェアスタックを個別にインストールできます。
Ubuntu Linux OS
Red Hat Enterprise Linux 7,8 / CentOS​ 7,8
最大消費電力10.2 kW max6.5 kW max
運用温度範囲5 ℃ - 30 ℃5 ℃ - 30 ℃
NVIDIA DGX H100 スペック

見積依頼・お問い合わせはこちら

製品に関するご質問・ご相談など、お気軽にお問い合わせください。

NVIDIA認定のエリートパートナー「GDEPソリューションズ」は、
​ お客様の用途に最適な製品のご提案から導入までサポートします。