最新の NVIDIA GPU をラインナップ!
NVIDIA H200/H100 NVL、NVIDIA A100 Tensor Core GPU、NVIDIA RTXシリーズなど、AI・シミュレーション・CAD制作・3DCG・映像編集・VRといったプロフェッショナル向けのGPUを幅広く取り扱っています。
GPU単体での購入はもちろん、GPU搭載ワークステーションやサーバーとセットでのご提供も可能です。
また、1ヵ月から利用できるGPUレンタル(月額)もご用意。
「短期間だけ使いたい」「GPUの性能を実業務で試したい」「固定資産にしたくない」といったニーズにも対応しています。
サーバー向けGPU「NVIDIA H100 NVL」「NVIDIA A100 GPU」、ワークステーション向け「NVIDIA RTX 6000 Ada」を、オフィス環境や居室で静音で使いたい方向けに開発した
「NVIDIA GPU デスクトップ水冷システム AquSys」 もご用意しています。
NVIDIA GPU 一覧PDF ダウンロード
弊社が取り扱っている「NVIDIA GPU」 の性能、スペックを一覧にしています。
NVIDIA GPUの導入を検討される際の参考にご活用ください。

※GPUの参考価格は、各GPUの製品ページまたは、GPUレンタルページよりご確認ください。
NVIDIA H200 NVL 141GB
NVIDIA H200 GPUで次世代のAIとHPCを加速!GPUメモリ141GBのHBM3eと進化したHopperアーキテクチャで、大規模言語モデル(LLM)や生成AIの処理を劇的に効率化。
NVIDIA H100 NVL 94GB
NVIDIA H100 GPU(NVIDIA H100 NVL)は、94GBのGPUメモリが搭載されており、2基のNVIDIA H100をNVIDIA NVLinkで接続することにより、188GBの大容量GPUメモリと、メモリバンド幅 7.8 TB/s の高速なデータ転送を実現!
NVIDIA H100 80GB
NVIDIA H100 GPUは、GPUアーキテクチャ「Hopper」を採用し、80GB HBM2eの大容量GPUメモリ、第4世代のTensorコア、前世代となるNVIDIA A100 GPUの約1.5倍にあたる800億個のトランジスタが搭載されています。
NVIDIA A100 Tensor Core GPU
NVIDIA A100 GPUは、Ampereアーキテクチャ採用、GPUメモリ80GB、メモリ帯域幅2TB/s!単精度・倍精度演算性能を兼ね備え、NVIDIA A100 GPU は前世代と比較して最大20倍のパフォーマンス。
NVIDIA L40S
NVIDIA L40S GPUは142基の第3世代RTコア、GPUメモリは48GB GDDR6を搭載、第4世代TensorコアとTransformer Engine、新しい半精度性能(FP8)により、NVIDIA A100 GPUの推論性能を最大1.5倍上回ります。
NVIDIA L40
NVIDIA L40は、NVIDIA Ada Lovelaceアーキテクチャを採用し、前世代のNVIDIA A40 GPUと同じGPUメモリ容量 48GB GDDR6を搭載しており、NVIDIA L40は、A40 GPUの2倍の性能向上を実現。
NVIDIA A40 Tensor Core GPU
NVIDIA A40 GPUは、NVIDIA Ampereアーキテクチャ採用、GPUメモリ 48GB、メモリ帯域幅 696GB/s、デザイン、クリエイティブ、科学計算など、パワフルな計算処理能力を発揮します。
NVIDIA A800 40GB Active
NVIDIA A800 GPUは倍精度ユーザーのためのワークステーション向けGPU。NVIDIA A800 GPUはGPUメモリ40GB、第3世代 Tensorコア、マルチインスタンスGPU搭載。AI、HPC、CAE、エンジニアリングシミュレーション(数値流体力学、構造解析など)のワークロードを加速します。
NVIDIA RTX PRO Blackwellシリーズ
次世代GPUの頂点、NVIDIA RTX PRO Blackwellシリーズ。革新的な性能と業界最高水準の技術を体験してください。
NVIDIA RTX シリーズ スペック比較
NVIDIA RTX スペック比較!NVIDIA RTX Adaと前世代 RTX Aシリーズのスペックを比較。RTX6000Ada/RTX5000Ada/RTX4500Ada/RTX4000Ada/RTX2000Ada/GeForce RTXとのスペック比較。