2022年3月21日-24日開催のNVIDIA GTC 2022で、NVIDIA社の新しいGPUアーキテクチャNVIDIA Hopper 採用の「NVIDIA H100 GPU」が発表され、そのH100 GPU が8基搭載された「NVIDIA DGX™ H100」も同時に発表されました。
NVIDIAのエリートパートナーであるGDEPソリューションズは、「NVIDIA DGX H100」の販売を行なっています。
NVIDIA DGX H100

NVIDIA社は、NVIDIA H100 Tensor Core GPUを搭載した世界初のAIプラットフォーム、DGXシステム第4世代となる「NVIDIA DGX H100」を2022年に発表しました。
8基のNVIDIA H100 GPUを搭載したNVIDIA DGX H100は、NVIDIA NVLinkで1つに接続されており、新しいFP8 精度で前世代(DGX A100)の6倍以上となる「32 ペタフロップス」のAI性能・高速化を実現しました。
NVIDIA DGX H100 は世界で初めて NVIDIA H100 Tensor Core GPU を搭載したシステムであり、AI のスケールとパフォーマンスの限界を突破します。
NVIDIA ConnectX®-7 スマート ネットワーク インターフェイス カード(SmartNIC)と、NVIDIA BlueField®-3 データ プロセシング ユニット(DPU)で 6 倍のパフォーマンスと 2 倍高速なネットワーキングを実現し、NVIDIA DGX SuperPOD 向けのハイスピード スケーラビリティを提供します。この次世代アーキテクチャは、自然言語処理やディープ ラーニングによるレコメンデーション モデルなど、大規模で複雑な AI ジョブに対応できるように強化されています。
NVIDIA DGX H100 は、オンプレミスに導入して直接管理できるほか、NVIDIA DGX 対応のデータセンターへのコロケーション、NVIDIA DGX Foundry でのレンタル、NVIDIA 認定のマネージド サービス プロバイダーを介した利用が可能です。
また、DGX 対応のライフサイクル管理プログラムにより、最新のシステムの導入を維持するための予測性の高い財務モデルを利用できます。これを利用すると、忙しい IT スタッフの負担を増やすことなく、従来の IT インフラと同じように簡単に NVIDIA DGX H100 を活用できるため、明日を待たずにビジネスに活用することができます。
2023年3月 出荷開始!
NVIDIA DGX H100 特徴

GPUメモリTotal 640GB
NVIDIA DGX H100 は、NVIDIA H100 GPU[80GB] × 8基、640GBの大容量GPUメモリを搭載しています。
GPU 間の双方向帯域幅は 900GB/秒 を実現!
NVIDIA NVSWITCHE
NVIDIA DGX H100 は、NVSWITCHES™ × 4により前世代の1.5倍となる、7.2テラバイト/秒の双方向GPU-GPU帯域幅を実現!
ネットワーク
NVIDIA CONNECTX®-7 × 8、NVIDIA BLUEFIELD® DPU 400GB/秒 ネットワークインターフェイス × 2により、ピーク双方向ネットワーク帯域幅 1テラバイト/秒を実現!
システムメモリ
NVIDIA DGX H100 は、デュアル × 86CPU & 2テラバイトのシステムメモリにより、AI への依存が非常に高い仕事を可能にするパワフルCPUを搭載!
ストレージ
NVIDIA DGX H100 は、最大のパフォーマンスを実現する高速ストレージ 30TB NVMe SSDを搭載!
NVIDIA DGX SuperPOD

NVIDIA DGX H100 は、次世代 NVIDIA DGX POD および NVIDIA DGX SuperPOD といったAIデータセンター インフラストラクチャプラットフォームを構成することが可能です。
NVIDIA DGX SuperPODは、きわめて困難な AI およびハイパフォーマンス コンピューティング (HPC) ワークロードに対して、最高クラスのアクセラレーテッド インフラストラクチャと俊敏かつスケーラブルなパフォーマンスを提供し、業界で認められた結果をもたらします。
NVIDIA DGX H100 スペック
NVIDIA DGX H100のスペックは、発売前の暫定仕様になります。
更新情報が入り次第、アップデートします。
NVIDIA DGX H100 と、前世代となる NVIDIA DGX A100 のスペックを比較してみましょう。
NVIDIA DGX H100 | NVIDIA DGX A100 | |
GPU | NVIDIA H100 Tensor Core GPU 80 GB x 8基 | NVIDIA A100 Tensor Core GPU 80 GB x 8基 |
GPUメモリ | Total 640 GB | Total 640 GB |
性能 | 32 petaFLOPS FP8 | AIで 5 petaFLOPS INT8で 10petaFLOPS |
NVIDIA NVSwitches | 4x | 6 |
CPU | Dual x86 | Dual AMD Rome 7742 2.25 GHz(base), 3.4 GHz(max boost) Total 128 コア |
システムメモリ | 2 TB | 2 TB |
ネットワーク | 4 個の OSFP ポートで 8 基の シングルポート ConnectX-7 へ接続 400Gb/s InfiniBand/Ethernet 2 基のデュアルポート NVIDIA BlueField-3 DPU VPI 400Gb/s InfiniBand/Ethernet x1 200Gb/s InfiniBand/Ethernet x1 10Gb/s オンボード NIC(RJ45 付き) 50Gb/s Ethernet オプション NIC ホスト ベースボード管理コントロー ラー(BMC)(RJ45 付き) 2x NVIDIA BlueField-3 DPU BMC (それぞれ RJ45 コネクタで接続) | Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand × 8 Dual-Port Mellanox ConnectX-6 VPI 10/25/50/100/200 Gb/s Ethernet × 2 |
ストレージ | OS: 1.92 TB M.2 NVMe E drives × 2 内部ストレージ: 30 TB (3.84 TB × 8) U.2 NVMe drives | OS: 1.92 TB M.2 NVMe drives × 2 内部ストレージ: 30 TB (3.84 TB × 8) U.2 NVMe drives |
ソフトウェア | DGX H100システムには、Ubuntu Linuxに基づいて DGXソフトウェアスタック (DGX用に最適化されたすべての必要なパッケージとドライバー) を含むDGX OSがプリインストールされています。 オプションで、お客様はUbuntu LinuxまたはRedHat EnterpriseLinuxと 必要なDGXソフトウェアスタックを個別にインストールできます。 | Ubuntu Linux OS Red Hat Enterprise Linux 7,8 / CentOS 7,8 |
最大消費電力 | 10.2 kW max | 6.5 kW max |
運用温度範囲 | 5 ℃ - 30 ℃ | 5 ℃ - 30 ℃ |
NVIDIA DGX H100 カタログ
NVIDIA DGX H100 のカタログをダウンロードできます。
NVIDIA DGX H100 価格
教育機関、NVIDIA Inceptionパートナー、一般企業・研究機関向けの価格がございます。
また、3年間のNVIDIA DGX システム エンタープライズ サポートのご購入が必要です。(サポート期間は4年、5年も選択可能です。)
詳しくはお問合せ下さい。

見積依頼・お問い合わせはこちら
製品に関するご質問・ご相談など、お気軽にお問い合わせください。
NVIDIA認定のエリートパートナー「GDEPソリューションズ」は、
お客様の用途に最適な製品のご提案から導入までサポートします。