生成AI・大規模言語モデル・HPCを次の次元へ引き上げる次世代GPU

NVIDIA® H200 NVL 141GB は、HBM3eメモリとNVLink™を備え、生成AI・大規模言語モデル(LLM)・HPC向けに設計されたNVIDIA Hopper世代の最新GPUです。

NVIDIA® H200 NVL は、HBM3eメモリを141GB搭載した、生成AIおよびハイパフォーマンスコンピューティング(HPC)向けのGPUです。

大規模言語モデル(LLM)の学習・推論、科学シミュレーション、リアルタイム解析など、メモリ容量と帯域幅が性能を左右するワークロードにおいて、従来世代を大きく上回る性能を発揮 します。

※ 本製品は消費電力が非常に高いため、NVIDIAが認定したシステムでのみご利用いただけます。
動作確認済みのシステムや搭載方法については、弊社までお問い合わせください。

NVIDIA H200 NVL 主な特長

1. Hopper アーキテクチャの進化版

NVIDIA H200 は、Hopper アーキテクチャをベースに、AIトレーニング、推論、HPCアプリケーション向けに最適化されています。

前世代の H100 と比較して、メモリ容量とメモリ帯域幅が大幅に向上 し、より大規模なAIモデルやデータセットを効率的に処理可能です。

2. 141GB HBM3e メモリと 4.8TB/s の帯域幅

NVIDIA H200 は、HBM3e メモリを141GB 搭載した初のGPUです。
毎秒 4.8TB のメモリ帯域幅により、LLM や生成AI、HPC におけるメモリアクセスのボトルネックを解消します。

3. NVLink による高いスケーラビリティ

NVIDIA H200はNVLink™により最大4基のGPUを高速接続可能
複数GPU構成でも、単一GPUのようにメモリを活用でき、大規模推論・分散処理に適しています。

4. 高性能と電力効率の両立

NVIDIA H200 は、H100 と同等の電力プロファイル内で、より高いパフォーマンスを実現します。消費電力あたりの性能が向上することで、AIファクトリーやデータセンター運用におけるトータルコスト(TCO)の削減 に貢献します。

5. 最適化されたAIワークロード

生成AIや大規模言語モデル(LLM)など、最先端のAIアプリケーション向けに設計されており、より高速なトレーニングと推論を可能にします。

eyecatch-nvidia-h200-nvl-gpu

参考販売価格:5,900,000円(税込 6,490,000円)
短期レンタル価格:960,000 円/月(税込 1,056,000 円/月)
長期1年レンタル価格:430,000 円/月(税込 473,000 円/月) 
発売時期:2024年11月

NVIDIA H200 NVL パフォーマンス

NVIDIA H200 は、H100 と比較して以下の性能向上を実現しています。

  • LLM 推論性能:約1.6〜1.9倍
  • メモリ容量:約2倍
  • メモリ帯域幅:約1.4倍

GPT3-175B 推論 1.6倍 の高速化

LLama2 70B 推論 1.9 の高速化

glaph_nvidia-h200-performance_llm-inference-chart
出典:NVIDIA

参考仕様。変更される場合があります。
Llama2 13B: ISL 128, OSL 2K | Throughput | H100 SXM 1x GPU BS 64 | H200 SXM 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 SXM GPUs BS 64 | x8 H200 SXM GPUs BS 128
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32.


大規模言語モデル(LLM)推論性能

NVIDIA H200 は、Llama2 などの LLM を扱う場合、H100 GPU と比較して 推論速度を約2倍に向上 させます。

企業における AI 推論では、高いスループットと最小限の TCO を両立することが重要です。
NVIDIA H200 は、大規模ユーザー向け推論基盤に最適なAI 推論アクセラレータです。


高性能コンピューティング(HPC):最大110倍の高速化

NVIDIA H200 は、メモリ帯域幅が性能を左右する HPC アプリケーションでは、CPU 構成と比較して最大110倍の高速化を実現します。

科学計算、分子動力学、量子化学、気象解析などの分野において、計算時間を大幅に短縮し、研究開発のスピードを加速します。

glaph_nvidia-h200-performance_igh-performance-computing-chart
出典:NVIDIA

準備段階で測定されたパフォーマンスです。変更される可能性があります
HPC MILC- dataset NERSC Apex Medium | HGX H200 4-GPU | dual Sapphire Rapids 8480
HPC Apps- CP2K: dataset H2O-32-RI-dRPA-96points | GROMACS: dataset STMV | ICON: dataset r2b5 | MILC: dataset NERSC Apex Medium | Chroma: dataset HMC Medium | Quantum Espresso: dataset AUSURF112 | 1x H100 | 1x H200.

エネルギー効率とTCO削減

NVIDIA H200 は、高い演算性能と省電力設計を両立しています。
同一ワークロードあたりの消費電力を抑えることで、データセンター運用における電力コストと管理コストを削減します。

AIファクトリーやスーパーコンピューティングシステムにおいて、NVIDIA H200 は高速性だけでなく、経済性と持続可能性を兼ね備えたGPUです。

glaph_nvidia-h200-performance_nergy-tco-chart
出展:NVIDIA

準備段階で測定されたパフォーマンスです。変更される可能性があります
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 1x GPU BS 8 | H200 1x GPU BS 32

NVIDIA H200 NVL 導入のメリット

最大限の生産性

圧倒的なスピードと効率性により、プロジェクトのスケジュールを短縮

長期的なコスト削減

エネルギー効率の向上により、運用コストを抑制

柔軟な拡張性

NVLinkにより、スケールアップが容易

NVIDIA H200 NVL とは

NVIDIA H200 NVL は、空冷式エンタープライズラック向けに最適化されたPCIeフォームファクターの GPUです。

最大4基のGPUを NVIDIA NVLink™ で接続可能で、
H100 NVL と比較して、

  • LLM 推論性能:最大 約1.7倍
  • HPC 処理性能:最大 約1.3倍

の性能向上を実現します。

柔軟な構成が求められる AI 基盤や HPC 環境において、高い導入性とパフォーマンスを両立します。

NVIDIA H200 NVL 性能・スペック

H100 NVL との性能・スペック比較

NVIDIA H200 NVL 141GBNVIDI H100 NVL94GB
GPUアーキテクチャHopperHopper
GPUメモリ141 GB HBM3e94 GB HBM3
メモリバンド幅4.8 TB/s3.9 TB/s
デコーダー7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
最大熱設計電力(TDP)600W
(configurable)
300-350W
(configurable)
マルチインスタンス GPUsUp to 7 MIGs
16.5 GB each
Up to 14 MIGs
12 GB each
フォームファクターPCIe
Dual-slot / Air-cooled
PCIe
Dual Slot / Air-cooled
相互接続2- or 4-way NVIDIA NVLink bridge:
900GB/s per GPU
PCIe Gen5: 128GB/s
NVLink:
600 GB/s
PCIe Gen5: 128 GB/s
FP6430.0 TFLOPS34.0 TFLOPS
FP64 Tensor コア60.0 TFLOPS67.0 TFLOPS
FP3260.0 TFLOPS67.0 TFLOPS
TF32 Tensor コア835 TFLOPS989 TFLOPS
BFLOAT16 Tensor コア1,671 TFLOPS1,979 TFLOPS
FP16 Tensor コア1,671 TFLOPS1,979 TFLOPS
FP8 Tensor コア3,341 TFOPS3,958 TFOPS
INT8 Tensor コア3,341 TFOPS3,958 TFOPS

*仕様は変更される場合があります。

NVIDIA GPU 一覧表PDF

弊社で取り扱っているNVIDIA GPUの性能・スペックを一覧にしました。
PDFファイルをダウンロードすることができます。

image_list-nvidia-gpus_202504
2025年4月版

よくある質問

Q1. NVIDIA H200 NVL はどのような用途に向いていますか?

生成AIや大規模言語モデル(LLM)の推論、およびメモリ帯域幅が性能を左右するHPC用途に最適です。特に、大規模モデルを少ないGPU構成で扱いたいケースに適しています。

Q2. NVIDIA H200 NVL と H100 NVL の違いは何ですか?

NVIDIA H200 NVL は、H100 NVL と同じ Hopper 世代のGPUですが、HBM3e メモリ(141GB)と 4.8TB/s の高帯域メモリを搭載している点が大きな違いです。
これにより、LLM 推論や HPC 処理において、H100 NVL 比で高い性能と効率を実現します。

Q3. NVIDIA H200 NVL はどのサーバーでも利用できますか?

いいえ。NVIDIA H200 NVL は消費電力が高いため、NVIDIA が認定した対応システムでのみ利用可能です。
対応サーバーや構成については、GDEPソリューションズまでお問い合わせください。

NVIDIA GPU 拡張保証サービス

NVIDIA GPUは「3年間センドバック保証(無償修理・交換)」のメーカー標準保証が基本として含まれていますが、
当社オリジナルとして「NVIDIA GPU 拡張保証サービス」をご提供しています。

「NVIDIA GPU 拡張保証サービス」には、先出しセンドバック保証センドバック延長保証オンサイト保証があり、お客様のニーズや状況にあわせた保証内容にすることができます。

NVIDIA GPU 拡張保証サービスにより、GPU導入後も、長く・安心してお使いいただけます。
GPUを導入される際に、あわせてご検討ください。

★NVIDIA GPU 拡張保証サービスの詳細はこちら

お気軽にご相談ください!

製品に関するご質問・ご相談など、お気軽にお問い合わせください。

NVIDIA認定のエリートパートナー「GDEPソリューションズ」は、
​ お客様の用途に最適な製品のご提案から導入までサポートします。