Vooruitzichten NVIDIA B200 en B300 [GPU]
De afgelopen jaren zijn de mogelijkheden van AI op indrukwekkende wijze gegroeid. Veel mensen hebben een pc of smartphone en kunnen daardoor gratis de mogelijkheden van generatieve AI ervaren. Om de AI-mogelijkheden verder te verbeteren, is het noodzakelijk om een grote hoeveelheid krachtige GPU’s veilig te stellen.
Enorme investeringen zijn vanzelfsprekend, maar zolang er geen problemen zijn, verschijnen er elk jaar nieuwe GPU-modellen met verbeterde verwerkingskracht — dat is een feit. En het is ook een feit dat de Verenigde Staten, door een enorme hoeveelheid GPU’s veilig te stellen, wereldwijd toonaangevend zijn in AI-business.
Om die redenen heb ik geschreven over een nogal gespecialiseerd GPU-model.
1. Oorzaken van wereldwijd tekort en vraag naar de NVIDIA B200
De B200-chip van NVIDIA is een AI-gerichte GPU gebaseerd op de Blackwell-architectuur, waarvan de wereldwijde levering extreem krap is.
Ik leg de oorzaken op begrijpelijke wijze uit.
Eerst vanaf de vraagkant: te midden van de snel groeiende AI-hype concentreren grote hyperscalers zoals Meta, Microsoft, Google en Amazon enorme bestellingen.
Deze bedrijven gebruiken de B200 voor training en inference van generatieve AI en grote taalmodellen (LLM),
en streven naar prestaties die 4× hoger zijn dan de H100 (20 PFLOPS).
Tot eind 2025 is hij volledig uitverkocht; nieuwe bestellingen hebben tot 12 maanden wachttijd. MKB-bedrijven hebben grote moeite om hem te bemachtigen en vrezen verlies van concurrentiekracht.
Over het tekort en de krapte van de NVIDIA B200
Vanuit aanbodperspectief is de vertraging in de overgang naar TSMC’s CoWoS-L-verpakkingstechnologie de grootste oorzaak.
Van eind 2024 tot de eerste helft van 2025 blijft de productie laag, beïnvloed door aardbevingen en tekorten aan onderdelen (HBM3e-geheugen).
Bovendien geeft NVIDIA prioriteit aan de productie van de GB200 (superchip met meerdere B200’s), waardoor de levering van losse PCIe-versies van de B200 beperkt blijft.
Geopolitieke risico’s, zoals exportbeperkingen door handelsconflicten tussen de VS en China, verstoren ook de wereldwijde supply chain.
Resultaat: terwijl investeringen in AI-datacenters in 2025 verder versnellen, kan het aanbod niet bijbenen — meerdere kwartalen van tekorten worden verwacht. Deze situatie symboliseert de groei van de AI-industrie en maakt tegelijkertijd de uitdagingen van de hele sector zichtbaar.
2. Betekenis van de introductie van de NVIDIA B200 — Bijdrage aan verbetering van AI-capaciteiten
Door gebruik te maken van de B200-chip van NVIDIA ontstaan enorme voordelen voor AI-ontwikkeling.
Over de prestaties van de B200
Training-prestaties 3× hoger dan H100,
inferentie-prestaties 15× hoger, met 208 miljard transistors en 192 GB HBM3e-geheugen kan hij efficiënt omgaan met LLM’s van biljoen-parameter-niveau.
Dit versnelt doorbraken in wetenschappelijke gebieden zoals medicijnontwikkeling, klimaatveranderingssimulatie en quantum computing. Bijvoorbeeld: de analysetijd van complexe moleculaire structuren wordt drastisch verkort, de snelheid van nieuwe medicijnontwikkeling neemt toe.
Een van de voordelen is dat inferentiekosten en stroomverbruik met 25 % kunnen worden verlaagd.
Door verbeterde energie-efficiëntie worden de operationele kosten van datacenters gedrukt en wordt duurzame AI-exploitatie mogelijk. Daarnaast vordert de democratisering van realtime generatieve AI.
Chatbots en aanbevelingssystemen kunnen tegen lage kosten worden gebouwd, waardoor ook het MKB makkelijker eigen AI-fabrieken kan opzetten. Het effect op de verbetering van AI-capaciteiten is duidelijk: de introductie van FP4-precisie verdubbelt de bandbreedte en verhoogt de nauwkeurigheid van
multimodaal leren (integratie van tekst·beeld·geluid).
De 5e generatie NVLink versterkt de schaalbaarheid, samenwerking tussen meerdere GPU’s verloopt soepel en training van AGI-niveau modellen (algemene kunstmatige intelligentie) wordt realistisch. Resultaat: industriële transformatie en het ontstaan van innovatieve toepassingen in onderwijs, gezondheidszorg en entertainment. De B200 bevordert industriële transformatie en is de sleutel die de toekomst van AI verruimt.
3. Voorspelling wereldwijd tekort NVIDIA B300 in 2026
De
NVIDIA B300 (Blackwell Ultra)-chip in Thorne 2026 heeft een hoge kans op nog grotere tekorten.
De leveringen worden vanaf eind 2025 volledig, maar vertragingen in de productieramp bij TSMC (voortdurende problemen met CoWoS-L en nasleep van aardbevingen) + verdubbeling van de vraag naar HBM3e-geheugen veroorzaken ernstige tekorten aan onderdelen.
Analisten verwachten dat 80 % van de FY26-datacenteromzet ($154,7 miljard) afkomstig is van de Blackwell-familie; GB300-rackleveringen zijn neerwaarts bijgesteld van 50-80 duizend naar 15-20 duizend stuks, en
meerdere kwartalen zonder voorraad worden als zeker beschouwd.
Oorzaak van de vraag: voortdurende versnelling van AI-investeringen. Groei van de trainingsschaal van LLM’s, blijvende afhankelijkheid van NVIDIA ondanks Meta’s overstap naar ASIC/AMD, en mogelijke heropleving van de Chinese markt bij geopolitieke versoepeling.
De B300 zal nog meer vraag hebben dan de B200
B300 met 288 GB geheugen (1,5× meer dan de 192 GB van B200) en >8 TB/s bandbreedte, uitblinkend in grootschalige modelverwerking, FP4-prestaties 14 PFLOPS (55 % verbetering t.o.v. 9 PFLOPS van B200).
Hogedichtheidsontwerp TDP 1100 W wordt de basis voor next-gen AGI en expert-level AI en monopoliseert grote bestellingen van hyperscalers.
Ter(?) terwijl de B200 gericht is op inferentie en wetenschappelijke berekeningen, is de B300 gespecialiseerd in training met 2× schaal en betere ROI dankzij versterkte NVLink.
Prijs boven $400.000 maar SXM Puck-modularisatie verhoogt flexibiliteit, herontwerp van de supply chain wekt premiumvraag op. Resultaat: tekorten die de uitverkochte B200 van 2025 overtreffen en verdere groei van het AI-ecosysteem stimuleren.
4. Mogelijkheden van de NVIDIA B300 en verbetering van AI-capaciteiten
De B300-chip van NVIDIA (Blackwell Ultra) brengt revolutionaire voordelen voor AI-ontwikkeling.
Ten opzichte van B200: FP4-prestaties 1,5× (>15 PFLOPS), attention-prestaties 2× verbeterd, 288 GB HBM3e voor verwerking van ultra-grote modellen (> biljoen parameters).
AI-inferentie wordt 11× sneller (vs Hopper), training 4× sneller, realtime AI-reasoning wordt werkelijkheid (bijv. 30× snellere videogeneratie).
Voordeel: energie-efficiëntie verbetert, verbruik per TPS daalt 5×, drastische verlaging van datacenter-exploitatiekosten.
Mogelijkheden breiden zich uit met de bouw van AI-fabrieken: genetische analyse in de geneeskunde, financiële voorspellingen, intelligente e-commerce-agenten reageren direct, waardoor de productiviteit van hele sectoren stijgt.
Het effect op de verbetering van AI-capaciteiten is duidelijk: test-time scaling verhoogt modelnauwkeurigheid, versterkte NVLink verdubbelt (of meer) schaalbaarheid. Resultaat: geavanceerde reasoning-AI op AGI-niveau komt dichterbij en versnelt maatschappelijke transformatie. Deze chip is de sleutel die de toekomst van AI nog helderder zal verlichten.
Oorzaken wereldwijd tekort en vraag B200 |
・Hyperscalers (Meta, MS, Google, Amazon) monopoliseren met enorme bestellingen<br>
・4× prestaties H100 → explosieve AI-training en inference
・Vertraging CoWoS-L-overgang TSMC + aardbevingen + HBM-tekort
・NVIDIA prioriteert GB200 → te weinig losse B200
・VS-China spanning verstoort supply chain |
| Kernpunten |
| “Iedereen wil te veel maar er kan te weinig worden gemaakt” — tot eind 2025 |
 |
Voordelen en mogelijkheden met B200 |
・Training 3×, inference 15× sneller
・192 GB geheugen verwerkt biljoen-parameter LLM met gemak
・Medicijnontwikkeling · klimaatsimulatie worden dramatisch sneller
・Inferentiekosten & stroom 25 % lager → voordelige datacenters
・Realtime generatieve AI ook voor MKB bruikbaar
・Multimodaal (beeld+geluid+tekst) nauwkeurigheid explodeert
・AGI-ontwikkeling (mensniveau AI) komt realistisch dichterbij |
| Kernpunten |
| “AI snel · goedkoop · slim” — droomchip in één |
 |
Vraagvoorspelling B300 in 2026 |
・Levering start eind 2025 maar direct uitverkocht door productievertraging
・Geheugen 288 GB (1,5× B200), bandbreedte >8 TB/s
・Training-gespecialiseerd, ideaal voor volgende generatie AGI
・Hyperscalers bestellen massaal “moet B300 zijn”
・Prijs >$400.000 maar uitstekende ROI
・Mogelijke terugkeer Chinese markt → explosieve vraag |
| Kernpunten |
| “Zelfs wie tevreden was met B200 wil B300 direct” |
 |
Voordelen en mogelijkheden B300 (toekomst) |
・Energie-efficiëntie 5× beter (TPS/MW) → kostenbesparing
・Realtime verwerking (video e.d.) 30× sneller
・Geneeskunde (genetische analyse)
・Financiën (voorspelling)
・E-commerce (AI-agent) innovatie
・AI-fabriek multi-user tegelijk, lage-latentie service |
| Kernpunten |
| “Naar een wereld waarin AI actief is in elk dagelijks scenario” |
Landranking B200
1e plaats Verenigde Staten
Geschat geïnstalleerd aantal (B200 GPU) ca. 2.500.000 - 3.000.000 stuks 70-80 %
- AWS: Project Ceiba >20.000 stuks (400 exaflops AI-cluster, uitrol Q4 2025)
- Microsoft Azure: meer dan 1 miljoen stuks (basis DGX B200/GB200, AI-training)
- Google Cloud: 800.000 stuks (TPU-integratie)
- ANL (Argonne National Lab): Solstice 100.000 stuks (1.000 exaflops, DOE-wetenschapsproject)
- CoreWeave/Lambda: honderdduizenden stuks (CSP-uitbreiding).
- Driver: hyperscaler-gedreven AI-investeringen (OpenAI/Meta/Google).
Uitdagingen: stroomverbruik (1.000 W/GPU), tekort aan vloeistofgekoelde datacenters.
2e plaats Taiwan
Geschat geïnstalleerd aantal ca. 10.000 stuks (in gebruik) 0,3 %
- Foxconn (Hon Hai): 10.000 stuks (AI-fabriek supercomputer, voor onderzoek/startups, Q3 2025)
- NYCU (National Yang Ming Chiao Tung University): initiële invoering DGX B200 (honderden stuks, AI-onderzoeksplatform).
- Driver: TSMC/NVIDIA productie-samenwerking, halfgeleider-ecosysteem.
Uitdagingen: aardbevingsbestendig ontwerp.
3e plaats Zuid-Korea
Geschat geïnstalleerd aantal ca. 5.000 - 10.000 stuks (gepland/grotendeels operationeel) 0,2-0,3 %
- Overheidsinitiatief: plan >50.000 stuks (vooral gemengd met H100, B200-deel ca. 5-10.000 stuks, soevereine cloud/AI-fabriek)
- Samsung/SK Group/Hyundai: duizenden stuks (AI-productie/onderzoeksfabrieken, Q2 2025).
- Seoul National University: 4.000 stuks netwerktoegang (gemengd met H200, transitie naar B200).
- Driver: halfgeleiderindustrie (Samsung HBM-levering), overheids-AI-strategie.
Uitdagingen: overstap naar NVIDIA om afhankelijkheid van Huawei-alternatieven te verminderen.
4e plaats Japan
Geschat geïnstalleerd aantal ca. 4.000 - 10.000 stuks (in gebruik/gepland) 0,1-0,3 %
- Sakura Internet: 10.000 stuks (overheidssubsidie “Koukaryoku” cloud, HGX B200-systeem, maart 2025-2026)
- SoftBank: >4.000 stuks (DGX B200 SuperPOD, wereldklasse AI-cluster).
- AIST: ABCI-Q-uitbreiding (2.000 stuks gemengd met H100 + B200-toevoeging).
- Driver: nationale AI-projecten (subsidie >13 miljard yen), aardbevings-/klimaatonderzoek.
Uitdagingen: beperkingen stroomvoorziening (afhankelijkheid hernieuwbare energie).
5e plaats Duitsland
Geschat geïnstalleerd aantal ca. 1.000 - 5.000 stuks (initieel/gepland) <0,1 %
- Deutsche Telekom/NVIDIA: plan 10.000 stuks (industriële AI-cloud, voor Siemens/Ansys, bouw 2025-eind 2026, initieel B200 1-5.000 stuks)
- EU soeverein AI-initiatief: pilotintroductie (honderden stuks, productieprojecten).
- Driver: EU-productieondersteuning (Industrie 4.0), soevereine databescherming.
Uitdagingen: vertraging datamigratie conform GDPR.
6e plaats Overig Europa (Nederland/Frankrijk/Spanje/VK)
Geschat geïnstalleerd aantal ca. 2.000 - 5.000 stuks (verspreid/initieel) <0,1 %
- Nederland (TU/e Eindhoven): initiële invoering DGX B200 (honderden stuks, AI-onderzoek)
- Frankrijk (Scaleway): duizenden stuks (AI-cloud, tweede helft 2025)
- Spanje/VK: via Oracle EU/UK Government Cloud (honderden stuks, Blackwell-diensten)
- EU totaal: Global Scale-datacenters (VS/EU-selectie, testclusters).
- Driver: investeringen in soevereine infrastructuur conform EU AI Act.
Uitdagingen: grensoverschrijdende dataoverdracht-regelgeving.
7e plaats Australië
Geschat geïnstalleerd aantal ca. 500 - 1.000 stuks (initieel) <0,05 %
- Oracle Australian Government Cloud: honderden stuks (Blackwell-diensten, tweede helft 2025)
- NEXTDC-datacenters: kleinschalige tests (overgang van H200).
- Driver: overheidscloud-uitbreiding, klimaatmodelonderzoek.
Uitdagingen: vertraging door geografische isolatie.
8e plaats China
Geschat geïnstalleerd aantal ca. 100 - 500 stuks (onder restricties/varianten) <0,01 %
- B20/B30A-varianten (voldoen aan exportrestricties, prestatiebeperkte B200, via Inspur Q2 2025)
- Huawei-alternatief transitie: hoge niet-NVIDIA afhankelijkheid (Ascend-chip 5-20 % yield).
- Driver: binnenlandse AI-zelfvoorziening.
Uitdagingen: VS-exportrestricties (TPP-plafond 600 TFLOPS, 1/7,5 van standaard B200).
9e plaats VAE/Indonesië/Singapore (overig)
Geschat geïnstalleerd aantal ca. 500 - 1.000 stuks (verspreid) <0,05 %
- VAE (MorphwareAI): honderden stuks (Abu Dhabi AI-uitbreiding)
- Indonesië (Indosat): initiële soevereine cloud (honderden stuks)
- Singapore (Singtel): via Yotta/Shakti Cloud (test)
- Driver: AI-investeringen opkomende markten.
Uitdagingen: nog onvolwassen infrastructuur.
Over prestaties, vraag en voordelen van NVIDIA B200·B300
Gemaakt met verwijzing naar de output van xAI
Belangrijke opmerkingen
De inhoud van deze site is met de grootste zorg samengesteld om fouten te voorkomen, maar nauwkeurigheid wordt niet gegarandeerd.
Afhankelijk van de specificaties (prestaties) van de pc/smartphone van de bezoeker, verschillen in OS of browserversie enz. kunnen grote verschillen veroorzaken.
Als javascript e.d. is uitgeschakeld, kan de pagina mogelijk niet correct worden weergegeven.
Voor meer nauwkeurigheid verzoeken wij u de informatie zelf te controleren bij betrouwbare bronnen.
Daarnaast is het kopiëren, hergebruik of herdistribueren van afbeeldingen en tekst van deze site verboden.