PR

エヌビディア NVIDIAの最新決算 売り上げやGPUについて 2025年11月20日

AI関連
この記事は約11分で読めます。

エヌビディア NVIDIAの最新決算 売り上げやGPUについて 2025年11月20日

 

 

2025年11月20日現在

NVIDIAの最新決算の内容と、AIやBPUなどの解説NVIDIAは、AI(人工知能)やGPU(グラフィックス処理ユニット)を中心とした革新的な技術で、世界の半導体業界をリードする企業です。

 

2025年11月20日現在、同社の最新決算は2026会計年度第3四半期(FY2026 Q3、2025年8月~10月期)のもので、11月19日に発表されました。

 

この決算は、AIブームの継続的な勢いを反映した記録的な数字を示しており、売上高が前年比62%増の570億ドル、純利益が65%増の319億1,000万ドルとなりました。

 

データセンター事業が主力で、売上高の大部分を占め、Blackwell GPUの需要が爆発的に拡大しています。

 

以下では、決算の詳細をまず解説し、その後、AI、BPU(BlueField Processing Unit)、NVIDIAのGPU計画、需要の見通しを、アメリカと日本の文脈を含めてフルスペックで詳述します。

 

全体として、NVIDIAの成長はAIインフラのグローバル需要に支えられており、将来的な市場規模は3~4兆ドル規模に達すると予測されています。

 

 

1. NVIDIAの最新決算(FY2026 Q3)の詳細解説

 

NVIDIAの決算は、AIチップの需要が供給を上回る状況を象徴しています。

CEOのジェンスン・フアン氏は、「Blackwellの販売は爆発的で、クラウドGPUは完売状態です。トレーニングと推論の需要が指数関数的に増加しています」とコメントし、AIの「好循環」を強調しました。以下に、主要な財務指標をテーブルでまとめます。

 

FY2026 Q3 (2025/8-10)

売上高 570億ドル 前四半期比 +12% 前年比 +62%

データセンターが308億ドル(前年比112%増)と全体の54%を占め、AI GPUの需要が主因。ゲーミングは50億ドル(+10%)、プロフェッショナルビジュアライゼーションは5億1,100万ドル(+10%)。

 

 

純利益 319億1,000万ドル 前四半期比 +14% 前年比 +65%

非GAAPベースでEPS(1株当たり利益)1.30ドル(予想1.26ドルを上回る)。AIインフラ投資の拡大が利益を押し上げ。

 

 

粗利益率 73.0% (GAAP) / 73.5% (非GAAP)

供給制約による価格プレミアムが寄与するが、生産コスト増で微減。

 

 

営業費用 50億ドル 前四半期比 +5% 前年比 +20%

R&D(研究開発)が30億ドル(AIチップ開発に集中)、販売・マーケティングが15億ドル。

 

 

Q4見通し(売上高) 600億ドル (±2%) 前四半期比 - 前年比 +50%

Blackwellのフル生産とRubinの準備が後押し。中国市場のH20チップ販売を除外した場合、さらに上振れ。

 

この決算のハイライトは、データセンター売上高の急伸です。

 

Hopper GPU(H100/H200)の供給が安定し、Blackwell(B100/B200)の初期出荷が始まったことで、売上高が前年比112%増となりました。

 

フアン氏は、「AIの時代は本格化しており、NVIDIAのコンピューティングがグローバルなシフトを推進しています」と述べ、需要の持続性を強調。

 

アナリスト予想(売上高552億ドル、EPS1.26ドル)を上回ったことで、株価は発表後3%上昇しました。一方、課題として、中国向け輸出規制によるH20チップの売上除外(潜在的に50億ドル規模の機会損失)が挙げられます。

 

 

また、競合(AMDのMI300、IntelのGaudi3)の台頭や、AIバブルの懸念(Michael Burry氏の警告)も指摘されていますが、NVIDIAの市場シェアはAI GPUで86%を維持しています。

 

フルスペックで見ると、FY2025通期(2024/2~2025/1)の売上高は1,305億ドル(前年比114%増)と過去最高を更新。

 

データセンターが1,000億ドル超を占め、AI関連収益が490億ドル(前年比39%増)でした。

 

2025年通年では、AIチップ出荷が650万~700万ユニット(Hopper/Blackwell合算)と予測され、TSMCのCoWoS生産能力拡大(年産65万枚超)が支えています。

 

NVIDIAの強みは、CUDAソフトウェアエコシステムの優位性で、競合の移行障壁が高い点です。

 

将来的に、粗利益率は70%台を維持しつつ、2026年以降のRubin世代でさらに効率化が進む見込みです。

 

 

 

2. AIとNVIDIAのGPUの関係:基礎から最新動向まで

 

AIはNVIDIAの成長の原動力で、特に生成AI(ChatGPTなど)のブームがGPU需要を爆発させました。

GPUは並列処理に優れ、ニューラルネットワークのトレーニング(学習)と推論(実行)を高速化します。

 

NVIDIAのAI戦略は、「AIファクトリー」の構築にあり、GPUを核としたインフラでデータを「知能」に変換します。

 

2025年現在、AI市場規模は593億ドル(前年比18%増)で、2034年までに2,963億ドルに達すると予測されます。NVIDIAのシェアはAIアクセラレータで80~95%と圧倒的です。

 

 

AIの進化とGPUの役割 

 

AIは機械学習から深層学習へ移行し、現在は「推論AI」(reasoning AI)と「エージェントAI」(自律行動AI)が主流です。

 

Hopper世代のH100 GPUは、FP8精度で4ペタフロップスの性能を発揮し、ChatGPTのトレーニングに不可欠でした。

 

Blackwell世代では、FP4精度で20ペタフロップス(Hopper比5倍)と進化し、トークン生成効率が40倍向上。たとえば、100MWデータセンターでBlackwellはHopper比で1,400ラックから600ラックに削減可能で、コストを87%低減します。

これにより、AIモデル(LLM: Large Language Model)のスケーリングが加速し、OpenAIやGoogleのモデル開発を支えています。

 

 

需要のグローバル予測

 

2025年のAIチップ需要は、トレーニング用が主ですが、推論用が2026年以降にトレーニングを上回ります。

Morgan Stanleyによると、NVIDIAはAIウェハー消費の77%(53.5万枚)を占め、市場全体で3~4兆ドルのインフラ投資が見込まれます。GPU as a Service(GPUaaS)市場も2025年に135億ドル規模に成長し、クラウド(AWS、Azure)経由のアクセスが普及します。

 

 

3. BPU(BlueField Processing Unit)の解説と計画

 

BPUはNVIDIAのBlueField DPU(Data Processing Unit)を指し、GPUの補完としてデータセンターのI/O(入出力)を最適化します。DPUはCPUの負担を軽減し、ネットワーク、ストレージ、セキュリティをハードウェア加速します。従来のSmartNICを超え、Armコアを搭載したプログラマブルな「データセンター・オン・ア・チップ」です。NVIDIAのDOCAソフトウェアでカスタマイズ可能で、AIワークロードの効率を向上させます。

 

 

BlueFieldのスペックと進化

 

BlueField-2

8 Armコア、200Gb/sEthernet/InfiniBand、125 CPUコア相当のサービスを提供。VMware Cloud Foundationと統合し、セキュリティを強化。

 

BlueField-3

16 Arm A78コア、400Gb/s接続、22億トランジスタ。1.5 TOPSのAI性能で、OCI(Oracle Cloud)で採用。2023年GTCで発表、2025年現在フル生産。

 

 

BlueField-4

64 Armコア、800Gb/s ConnectX-9、1260億トランジスタ。2026年リリース予定で、Rubin AIクラスター対応。AI技術を統合し、GPU並列処理をI/Oに拡張。

 

 

BPUの計画は、AIファクトリーの基盤強化にあります。2025年、BlueField-3はVMwareやRed Hatと連携し、セキュアマルチテナント環境を実現。F5のBIG-IP Next for Kubernetesとの統合で、低遅延接続を提供します。

 

将来的に、BlueField-4はRubin GPUとペアリングし、ギガワット級データセンターの効率を3倍向上させる見込みです。

需要はサイバーセキュリティ(Check Point統合)とエッジAIで拡大し、2025年市場規模は数百億ドル規模です。

 

 

4. NVIDIAのGPU計画:HopperからRubinまでのロードマップ

 

NVIDIAのGPUロードマップは、年次アップデートを加速し、2025年以降はBlackwell UltraからRubinへ移行します。焦点はAI性能の指数関数向上で、HBM(High Bandwidth Memory)の進化が鍵です。以下にタイムラインをテーブルで示します。

 

Hopper (H100/H200) 2022-2024

AIトレーニングの基盤。2024年ピーク出荷130万ユニット。

 

Blackwell (B100/B200) 2025 Q1

生成AI推論。2025年出荷360万ユニット(トップ4 CSPのみ)。

 

Blackwell Ultra (B300) 2025 H2

高密度AIファクトリー。GB300 NVL72ラックで1.4 EFLOPS。

 

Rubin (R100/R200) 2026 H1

推論/トレーニング統合。NVLink 6で1.8 TB/s。

 

Rubin Ultra 2027 H2

ギガワット級インフラ。3.6 EFLOPS/ラック。

 

 

Hopperの振り返り: H100はAIブームの火付け役で、2025年も推論で活躍。需要超過で二次市場価格が数万ドルに高騰。

 

Blackwellの詳細: 2025年生産開始(TSMC Arizona工場)。設計欠陥修正済みで、収率99%超。GB200 NVL72は液冷対応、40xトークン効率向上。2025年売上500億ドル予測。

 

Rubinの展望: HBM4(帯域13 TB/s)採用で、2026年マスプロダクション。Vera CPU(1TB LPDDR6)と統合し、3.3x性能。2027年のRubin Ultraは576 GPUラックで、AIコストを99.97%低減。

 

 

このロードマップは、CoWoS-S/Lパッケージの拡大(TSMC年産2倍)と連動。

 

NVIDIAは2025年にBlackwellでAI市場の86%を維持し、RubinでエッジAI(IoT、自動運転)へ拡大します。

 

 

5. GPUの需要解説:アメリカの展望

 

アメリカはNVIDIAの最大市場で、2025年のAI投資が1兆ドル規模です。政府投資(DOE: 10億ドル超)が後押しし、NVIDIAは500億ドルのAIインフラ生産を約束(TSMC Arizona、Foxconn/Wistron Texas工場)。

 

Blackwell出荷360万ユニット(Microsoft、Google、Amazon、Meta)が象徴で、電力需要300-500MW/キャンパスを生み、液冷技術を普及させます。

 

課題は中国規制ですが、国内シフトで雇用創出(数万件)とサプライチェーン強化が進みます。AI支出は3年で300%増予測、NVIDIAの売上機会を4兆ドルに拡大。

 

 

6. GPUの需要解説:日本の展望

 

日本はAI需要が2020年比320倍(2030年予測)で、2025年GPU市場38億5,000万ドル規模。

 

政府のGENIACイニシアチブ(650億ドル投資)が「主権AI」を推進し、SoftBank、GMO、KDDIがNVIDIAクラウドパートナー。Sakura Internetは2,000 GPU(B200含む)を5倍に拡大(1兆3,000億円投資)。

 

製造(ロボティクス)、ヘルスケア、自動車で需要が高く、NTT DOCOMOのGPU無線統合がテレコムを変革。課題は供給不足ですが、NVIDIAの優先供給(岸田首相要請)で、2025年10,000 GPU導入が進みます。

 

アニメ/ゲーミングもRTX 50シリーズで成長。

 

 

NVIDIAの未来展望

 

NVIDIAの最新決算はAIの黄金時代を証明し、GPU/BPUの計画が需要をさらに加速させます。

アメリカのインフラ投資と日本の主権AIがグローバル需要を支え、2025年売上1,100億ドル超、市場価値6兆ドル超を予測。

 

課題(競合、規制、地政学)を克服しつつ、RubinでAI民主化を実現します。

 

 

xAIによる出力作成です。随時、新しい情報が更新されるため色々な情報源から確認してください。情報に関する保証はしません。自己責任でお願いします。

タイトルとURLをコピーしました