NVIDIA GPUの性能徹底比較:H100、B200、GB200のスペック、価格、電力、普及・生産状況
(2025年10月時点)
各GPUの性能(TFLOPS、メモリなど)、価格、電力消費(TDP)、普及数・生産数について詳細に解説します。また、アメリカでの普及状況(主にデータセンター)と日本での供給状況も、最新の市場データに基づいて分析します。情報はNVIDIA公式スペック、TrendForceやMorgan Stanleyなどのアナリストレポート、SemiAnalysisのベンチマークから抽出しています。AI開発者やデータセンター運用者向けに、実務的な洞察を提供します。
NVIDIA GPUの概要と高性能化とスピード
NVIDIAのデータセンター向けGPUは、AI訓練や推論、高性能計算(HPC)の基盤として急速に進化しています。
H100はHopperアーキテクチャの主力で、2022年の発売以来、生成AIのブームを支え、数百万台規模の展開を実現しました。
一方、B200とGB200は2024年に発表されたBlackwellアーキテクチャの新世代で、2025年現在、本格生産・出荷が進み、FP4精度の効率化により推論性能を劇的に向上させています。
以下では、各GPUの性能、価格、電力消費、生産・普及数、米国と日本の供給状況を詳しく解説します。さらに、国際的な輸出規制や供給チェーンの課題も紹介します。これらの情報は、2025年10月時点の市場データに基づきます。
H100 GPUの概要と性能
H100
H100は、TSMCの4Nプロセスで製造された80億トランジスタのGPUで、AIワークロードの標準として定着。Transformer Engineにより、FP8精度での高速処理を可能にし、ChatGPTのような大規模言語モデル(LLM)の訓練を加速させました。2025年現在も、H200(H100のメモリ拡張版)と並行して需要が堅調です。
・性能スペック
FP8 Tensor Coreで1,979 TFLOPSのピーク性能、HBM3メモリ80GB(帯域3.35TB/s)。訓練では前世代A100の6倍、推論では30倍の速度向上。MLPerfベンチマークでは、Llama 2 70BモデルでH100 8台が単体比5倍のスループットを達成。FP64(高精度計算)で30 TFLOPS、HPC用途(例: 気象シミュレーション)でも優位性を発揮します。H200版ではメモリを141GBに拡張し、帯域を4.8TB/sに向上。
・電力消費
SXM版で700W、PCIe版で350W。DGX H100システム(8台)で最大10.2kW。空冷が標準ですが、液冷導入で効率30%向上。2025年のデータセンターでは、ラック全体で40kW消費が一般的で、ワットあたり性能は前世代の10倍です。
・価格
単体で27,000〜40,000ドル。サーバー全体(8台)で250,000〜400,000ドル。クラウドレンタルは時間あたり2.85〜3.50ドルと、供給増加で価格が安定化。H200は若干高めで、30,000ドル前後。
・生産数と普及状況
2023年に500,000台、2024年に1.5〜2百万台生産。2025年Q1で約100万台(H200/H20含む)。グローバル普及数は数百万台超で、Metaが350,000台、Teslaが35,000台保有。2025年全体で200万台以上の出荷が見込まれ、Hopperシリーズ全体の売上はBlackwell移行後も維持されます。
B200 GPUの概要と性能
B200
B200はBlackwellアーキテクチャのフラッグシップで、2025年に本格デビュー。TSMC 4NPプロセス、208億トランジスタのデュアルダイ設計(2つのGPUダイを統合)。H100の後継として、FP4精度のTransformer Engine第2世代を搭載し、AI推論の効率を最大化。DGX B200システムでH100比3倍の訓練性能を実現します。
・性能スペック
FP4で20 PFLOPS、HBM3eメモリ192GB(帯域8TB/s)。H100比で訓練2.5倍、推論15倍。MLPerfでLlama 2 70Bのトークン生成が2〜3倍高速。DGX B200(8台)で72 PFLOPSの訓練性能。NVLink 5で1.8TB/sのGPU間通信を可能にし、スケーラビリティが高い。B100(低電力版)はH100互換で、70%の性能を発揮。
・電力消費
1000W(空冷可能)、フルスペックで1200W。液冷推奨で、H100比47%効率向上。8台システムで6.5〜7kW。データセンターでは液冷で電力コスト25%削減ですが、高電力が課題です。
・価格
単体で30,000〜40,000ドル(H100並み)。サーバー全体で数百万円規模。クラウドでは時間あたり4〜5ドル。2025年の初期供給でプレミアム価格が続き、B100は25,000ドル程度。
・生産数と普及状況
2025年Q1で75万〜80万台生産、年間数百万台規模。Blackwell全体売上はHopper超え。普及はクラウドサービスプロバイダー(CSP)中心で、MicrosoftやAWSが初期採用。CSP向けHGX B200が主力で、企業向けMGX B200A(スケールダウン版)が追従。
GB200 GPUの概要と性能
GB200
GB200はGrace CPUと2つのB200 GPUを統合したスーパーチップ。NVL72ラック(72 GPU/36 CPU)で単一GPUのように動作し、2025年のAI工場向けに最適化。Blackwellのスケールアウト性能を最大化し、データセンターの「AIファクトリー」として位置づけられます。
・性能スペック
FP4で40 PFLOPS、HBM3e 384GB + LPDDR5X 480GB(総864GB)。H100比で訓練5倍、推論30倍。NVL72で1.4エクサフロップスのAI性能、130TB/s NVLink帯域。LLM推論で25倍のエネルギー効率、GPT-MoE-1.8Tで4倍訓練速度。NVL36版は半分のスケールで、柔軟な展開が可能。
・電力消費
スーパーチップで2700W、NVL72ラックで120kW。液冷必須で、H100比25倍効率。電力消費は米家庭並みですが、TCOで12倍削減。2025年のデータセンターでは、140kW/ラックが標準化しつつあります。
・価格
スーパーチップで70,000ドル、NVL72ラックで3百万ドル。2025年生産で40,000台規模の出荷。NVL36版は1.8百万ドル前後で、CSPの主力。
・生産数と普及状況
2025年全体で60,000〜70,000台(NVL36/NVL72含む)。NVIDIAのBlackwell売上の80%を占め、OpenAIやxAIが採用。低ボリュームですが、高額で収益貢献大。GB200A(MGX版)は企業向けに調整され、2025年後半に普及拡大。
生産数と普及数の全体像
NVIDIAの2025年GPU生産は、Hopper(H100/H200)とBlackwell(B200/GB200)のハイブリッド。Hopperは成熟期、Blackwellは急成長期です。
・生産数
H100: 2025年全体で約200万台(Q1:100万台)。B200: Q1で75〜80万台、年間数百万台。GB200: 40,000〜70,000台(ラック単位)。Blackwell全体で高性能GPUの80%を占め、総出荷650万〜700万台。TSMCのCoWoS-L生産がボトルネックで、2025年出荷は前年比55%増の見込み。GB200 NVL36が主力で、60,000台超。
・普及状況
グローバルでH100が基盤(数百万台)、B200/GB200が新AI工場にシフト(数十万台)。Meta/TeslaのH100保有が代表的。Blackwellの低遅延が推論市場を変革し、2025年末までにBlackwellが80%超のシェアを占める予測。供給制約で、Hopperの延命生産が増加。
アメリカでの普及状況
米国はNVIDIAの最大市場で、2025年現在、AIデータセンターの70%がH100ベース。Microsoft/Azureが数百万台のH100を展開、OpenAIのGPT-4訓練に活用。B200/GB200はCSP中心で、Google/AWSが初期導入、NVL72で3百万ドルのラックを数千台規模で採用。総普及数はH100で数百万台、B200で数十万台、GB200で数万台。
電力消費が課題で、液冷施設が増加し、MicrosoftのデータセンターでGB200 NVL72が32,768 GPUスケールで展開。2025年のBlackwell出荷は全生産の大部分を米国が吸収、需要超過で供給制約が続く。
日本での供給状況
日本はAIインフラ投資が活発で、2025年に135億ドルの国家プロジェクト。
SoftBankが6,000台のH100をインストール、2025年にB200で10,000台へ拡張(13.7エクサフロップス)。ABCI-QスーパーコンピューターにH100 2,000台、Highresoの香川DCに1,600台。B200/GB200供給はSoftBank/Google Cloud経由で増加、総GPU容量2.1GW。
SoftBankのDGX SuperPODは世界初のB200システムで、FY2025内に25.7エクサフロップスへ拡大。
KDDIの液冷DCはGB200 NVL72を計画、SAKURA Internetは10,800 GPU(HopperからB200移行)。価格はH100が25,000〜30,000ドル、供給安定でAI研究加速。
Google Cloudの千葉DCでB200/GB200が稼働開始。
国際問題 輸出規制と対策
NVIDIA GPUの国際展開は、米国の輸出規制が最大の課題。2025年現在、BIS(産業安全保障局)の「AI Diffusion Rule」(1月発効)がH100、B200、GB200を中国・香港・マカオへの輸出禁止とし、TPP(Total Processing Performance)4,800超のチップを対象。
目的は中国の軍事AI利用防止で、第三国経由の迂回を防ぐグローバルライセンス制度を導入。NVIDIAのSECファイリングでは、B200/GB200が影響を受け、2025年5月15日から適用。H20(中国向け調整版)は一時許可されたが、8月北京警告で生産停止、55億ドルの損失。
対策として、NVIDIAはA800/H800/H20のような性能落とし版を開発しましたが、2025年1月のルールで追加規制。
トランプ政権下でH20輸出再開も、密輸が横行(2025年4-6月で10億ドル超のB200/H100流入)。
中国企業(ByteDance/Alibaba)は在庫活用やHuawei Ascend 910D(H100相当)へシフト。国際的に、EUの「Green Deal」や日本の「経済安全保障推進法」が追従し、中国提携を制限。NVIDIAの中国売上は13%から急減、CEO Jensen Huangは「規制は中国の自立を促進する失敗」と批判。
課題 電力消費と供給チェーン
Blackwellの進化は電力・供給の課題を顕在化。
H100の700Wに対し、B200は1200W、GB200 NVL72は120-140kW/ラックで、データセンターの5%未満しか対応不可。
液冷必須で、水冷供給チェーンの遅れ(水漏れ、クイックディスコネクト問題)が2025年出荷をQ2-Q3に遅延。TSMCのCoWoS-L生産がボトルネック、HBM3eスタック(8hi→12hi)の容量不足でBlackwell出荷がHopper延命を招く。デザイン欠陥(2024年修正)で初期収率低く、TSMCとのマスク変更でQ1出荷減。
環境面では、電力消費が世界の5%を占め、再生可能エネルギー移行が急務。NVIDIAはAIベースの予防メンテナンスを導入、TCO25%削減を目指すが、データセンター改修コストが数百億円規模。
全体の展望
H100は信頼性で2025年も主力、B200/GB200は性能/効率でAIの未来を定義。
生産増加と液冷進化で、AIの民主化が進みますが、規制と供給制約が影を落とす。企業はTCOを考慮し、ハイブリッド導入を推奨。将来的に、Rubin(2026年)でさらに効率化が進むでしょう。