中国向けGPUの性能 NVIDIA主力GPUとの比較
2025年10月現在、米中貿易摩擦の激化に伴い、
NVIDIAは中国向けに性能を落としたGPU(H20、B20など)を開発・供給しています。
これらは米国商務省(BIS)の輸出規制(Total Processing Performance: TPP閾値4800以下)に準拠するためのもので、先進AI技術の軍事転用を防ぐ狙いがあります。
一方、中国国内ではHuaweiのAscendシリーズなどの国産GPU開発が進み、NVIDIA依存からの脱却を図っています。

中国向けGPUの性能をH100(Hopperアーキテクチャの主力)、H200(H100のメモリ強化版)、B200(Blackwellアーキテクチャの次世代主力)と比較し、消費電力も解説します。
また、性能制限版の供給理由を安全保障観点から分析し、中国GPUの現状と性能比較を詳述します。情報はNVIDIA公式スペック、Reuters、Tom’s Hardware、SemiAnalysisなどの2025年最新レポートに基づきます。AI開発者や政策関係者向けに実務的洞察を提供します。
NVIDIAは、米国政府の輸出規制に対応するため、中国市場向けに性能を意図的に制限したGPUを開発・供給してきました。
これらのチップは、Total Processing Performance (TPP)という指標で規制閾値(4,800)を下回るよう設計され、主にAI訓練と推論の用途で利用されます。
代表的なものはHopperアーキテクチャのH800とH20で、2025年現在、Blackwellアーキテクチャ(B200)の中国版は未発表ですが、規制強化により開発が難航しています。
H100、H200、B200と比較し、性能と消費電力を詳しく解説
性能はFP8/FP16精度のTensor Core演算(AI推論/訓練の標準指標)を中心に、MLPerfやSemiAnalysisのベンチマークに基づきます。全体として、中国版は帯域幅やコア数を削減し、70-80%程度の性能に抑えられていますが、特定の推論タスクではH100を上回るケースもあります。
H100/H200/B200の基本スペック
まず、NVIDIAの主力GPUを基準に説明します。これらはTSMCの先進プロセス(H100/H200: 4N、4nm相当、B200: 4NP)で製造され、AIデータセンターの主力です。
・ H100 (Hopper, 2022年発売)
FP8 Tensor Core: 1,979 TFLOPS、HBM3メモリ80GB(帯域3.35TB/s)、SM(ストリーミングマルチプロセッサ)数: 132-144。訓練性能はA100の6倍、推論30倍。MLPerfでLlama 2 70Bモデル訓練に優位。TDP(熱設計電力): 700W (SXM版)。全体性能を100%と仮定。
・ H200 (Hopper, 2024年発売)
H100のメモリ強化版。FP8: 3,958 TFLOPS、HBM3e 141GB(帯域4.8TB/s)、SM数: 同上。H100比でメモリ容量1.76倍、帯域1.43倍。推論で45%向上(Llama 2 70Bで31,712 tokens/s vs H100の21,806)。TDP: 700W。H100比110-140%性能向上(メモリ依存タスク)。
・ B200 (Blackwell, 2025年発売)
次世代フラッグシップ。FP4: 20 PFLOPS、HBM3e 192GB(帯域8TB/s)、SM数: 208億トランジスタ(デュアルダイ)。H100比訓練2.5倍、推論15倍。MLPerfでLlama 2 70Bトークン生成2-3倍高速。TDP: 1,000-1,200W。H100比200-300%性能向上(FP4精度)。
xaiによる出力
これらのGPUはNVLink 5(1.8TB/s)でスケールし、大規模クラスター(数千台)で真価を発揮します。
中国向けGPU H800 H20の性能比較
中国版は主にH800(2023年)とH20(2024年)で、規制で禁止されたH100/H800の代替。B200の中国版は2025年規制強化で未定ですが、仮に開発されればH20同様に帯域制限がかかります。性能はコア削減と帯域低下で制限され、訓練効率が40-50%低下しますが、推論では最適化で競争力があります。
・ H800 (Hopper, 中国版H100)
H100の帯域を300GB/sに制限(標準600GB/sの50%)。FP8: 約1,400 TFLOPS(H100の70%)、HBM3 80GB(帯域2.5TB/s推定)。SM数: 114-132(H100比10-20%減)。訓練: H100の70%、推論: 60-70%。H200比: 50-60%(メモリ不足)。B200比: 20-30%。MLPerfでLLM訓練効率低下だが、単体推論はH100に近い。TDP: 700W(同等)。
・ H20 (Hopper, 中国版H100/H200)
2023年規制後開発。コア数78 SM(H100の54%、41%減)、FP8: 296 TFLOPS(H100の15%、H200の7.5%)。しかし、推論最適化でH100比20%高速(SemiAnalysis)。HBM3 96GB(帯域1TB/s)、NVLink 400GB/s。訓練: H100の28-40%、推論: H100超え(LLMで20%速)。H200比: 推論で10-20%劣るが、帯域効率高。B200比: 10-15%(FP4未対応)。クラスター拡張限定的(50,000台で3,000P FLOPS vs H100の100,000P)。TDP: 400W(低消費)。
H20は推論特化でH100を上回るが、訓練スケールで劣勢。B200の中国版未定だが、規制でTPP 4,800以内に抑えられ、性能20-30%に留まる可能性。
GPU消費電力の詳細
消費電力(TDP)は冷却・運用コストに直結。中国版は低TDPで効率化。
・ H100/H200: 700W。DGXシステム(8台)で5.6kW。液冷推奨でPUE 1.1。
・ B200: 1,000-1,200W。クラスターで高電力だが、効率47%向上(H100比)。
・ H800: 700W(H100同等)。電力効率同等だが、帯域制限で無駄熱増。
・ H20: 400W(H100の57%)。推論で低消費優位、クラスター電力30%低減。
中国版の低TDPは規制遵守と電力不足対策。中国のデータセンター電力は2025年2.32GWだが、H20クラスターで効率化可能。
なぜ性能の低いものを中国に供給するの? 安全保障観点
NVIDIAの中国供給は、ビジネスと規制のバランス。2022年10月BIS規制でH100禁止後、A800/H800を開発(帯域制限で軍事スケール防止)。2023年10月更新でこれらも禁止、H20を投入。理由は多層的。
・ 経済的動機
中国市場はNVIDIA売上の13%(171億ドル)。H20で55億ドル損失回避。2025年DeepSeek需要でH20注文急増(ByteDance/Alibaba)。
・ 規制遵守
TPP閾値下回り、ライセンス不要。帯域制限で大規模訓練阻害(クラスター効率40%低下)。軍事転用防止(超算禁止)。
・ 安全保障観点
米国は中国のAI軍事利用(監視/兵器)を懸念。低性能版で「十分な脅威なし」とBIS判断。完全禁止で中国自立加速(Huawei Ascend)。NVIDIAのNed Finkle VP: 「規制は米セキュリティ向上せず、中国市場喪失で競争力低下」。しかし、密輸(2025年10億ドルB200流入)で抜け道。トランプ政権下でH20一時許可も、北京警告で制限強化。
供給は「管理された依存」で中国の自立を遅らせる戦略だが、効果限定的。
中国のGPU開発現状とNVIDIAとの性能比較
中国は「Made in China 2025」でAI自立推進。HuaweiのAscendが主力、SMIC 7nmで生産(TSMC禁輸下)。2025年現在、Ascend 910B/C/DがH100対抗だが、プロセス遅れで劣勢。
・ Ascend 910B (2022年, 7nm)
FP16: 456 TFLOPS、HBM2e 64GB(帯域2TB/s)。H100比訓練80%、推論60%(Baiduテスト)。H200比50%、B200比20%。クラスターでH100相当(8台でLlama-2-70B同等)。TDP: 350W。ByteDance/Tencent採用、2025年生産200K台。
・ Ascend 910C (2025年, N+2プロセス, 2x910B統合)
FP16: 800 TFLOPS、HBM3 128GB(帯域3.2TB/s)。H100比推論60-70%、訓練60%(DeepSeekテスト)。H200比50%、B200比30%。価格$28,000(H100の70%)。2025年生産1.4M台、DeepSeek/BaiduでH100並み主張も、エコシステム(CANN vs CUDA)で劣る。
・ Ascend 910D (2025年後半, 5nm予定)
H100比80-90%推論、H200比60%。TSMC密輸疑い。全体でNVIDIAの年次進化(H100→B200: 3倍)に追いつけず、2025年市場シェア10%未満。
中国GPUの強みは低コスト(H100の60%)と国内エコシステムだが、歩留まり低(20-40%)でスケール難。NVIDIA比で訓練遅れ、推論で競争。
国際問題と対策内容
米中GPU摩擦はAI覇権争いの象徴。2025年BIS「AI Diffusion Rule」でグローバルライセンス導入、第三国迂回防止。
Tier1(18カ国: 日米欧韓台など)無制限
Tier2(シンガポール/UAE)5万GPU/2年上限
Tier3(中ロイラン)禁止
影響 = NVIDIA中国売上急減、密輸増加(深圳地下市場でH100中古2万ドル)。
・ 国際問題: EU「Green Deal」で中国提携制限、G7広島プロセスで協調。マレーシア/タイ経由密輸で米新制限(2025年5月)。中国報復: Huawei Ascend輸出促進、RISC-V推進。影響: グローバルサプライチェーン分断、TSMC日本工場拡大。
・ 対策: NVIDIAのVEU制度でエンドユーザー証明、DOJ摘発(2025年H100密輸2億ドル起訴)。トランプ政権でH20再許可も、BIS警告。EU/Japan追従: オランダASML輸出制限、日本経済安保法で中国向けGPU再輸出禁。
日本におけるGPUの課題
日本はTier1で無制限供給(SoftBank 10,000 B200)。しかし、課題多。
・ 電力/土地不足: B200クラスターで2.1GW需要、2030年3.66GW予測。都市部変電遅れ、地方移転(KDDI香川DC)。
・ 仕入れ/サプライ: TSMC熊本工場拡大も、米規制波及で中国迂回監視強化。SoftBank-OpenAI JVで30億ドル投資も、地政学リスク。
・ 政策課題: 経産省補助(330億円)でAI-DC推進も、脱炭素目標衝突(電力57TWh増)。労働力不足で建設遅延、2025デジタルクリフ(12兆円損失)。
日本は米同盟で優位だが、中国依存脱却が急務。Ascend競争で国内GPU開発(Rapidus 2nm)加速。
全体の展望
中国向け低性能GPUは規制の産物で、NVIDIAの市場維持策だが、安全保障上は中国自立を促すジレンマ。
Huawei AscendはH100の60-80%で追撃も、NVIDIAのエコシステム優位持続。国際的に分断進む中、日本はTier1活用でAIハブ化可能だが、電力/地政学課題克服が鍵。2025年規制変動で、米中AI競争はさらに激化する可能性もあります。