Microsoft Corp. heeft dit jaar ongeveer 485.000 van Nvidia’s “Hopper” AI-chips overgenomen, waarmee het de markt met een aanzienlijke marge leidt volgens Financiële tijden. Het bedrijf wil zijn mogelijkheden op het gebied van kunstmatige intelligentie verbeteren, met name binnen zijn Azure-clouddiensten. Deze strategische investering positioneert Microsoft vóór concurrenten als Meta Platforms, dat 224.000 chips kocht, en Amazon en Google, die respectievelijk 196.000 en 169.000 chips kochten.
Microsoft verwerft 485.000 Nvidia AI-chips om Azure een boost te geven
Analisten bij Omdia onthullen dat de chiporders van Microsoft groter zijn dan die van zijn naaste concurrenten, wat wijst op de agressieve ontwikkeling van de AI-infrastructuur. Microsoft wil zijn AI-diensten verder ontwikkelen door gebruik te maken van technologieën van OpenAI, waarin het 13 miljard dollar heeft geïnvesteerd. Dit jaar hebben technologiebedrijven gezamenlijk tientallen miljarden dollars uitgegeven aan datacenters uitgerust met Nvidia-chips, waarbij voorspellingen wijzen op een geschatte $229 miljard aan uitgaven aan servers in 2024. Microsoft alleen al zal naar verwachting $31 miljard aan dit totaal bijdragen.
De dominantie van Nvidia op de AI-chipmarkt is duidelijk zichtbaar, waarbij het bedrijf in het derde kwartaal een omzet van $35,1 miljard boekte, grotendeels gedreven door datacenterverkopen die goed waren voor $30,8 miljard. Ondanks Nvidia’s stevige greep op de industrie, boeken concurrenten als AMD vooruitgang. Omdia meldt dat Microsoft 96.000 AMD MI300-chips heeft gekocht, terwijl Meta 173.000 van dezelfde chips heeft aangeschaft in samenwerking met de technologische vooruitgang van AMD.
De vraag naar geavanceerde grafische verwerkingseenheden is groter dan het aanbod, waardoor Nvidia’s positie als belangrijke speler op het gebied van AI-ontwikkelingen is verstevigd. Deze dynamiek betekent dat de strategische chipaankopen van Microsoft waarschijnlijk zullen dienen om het AI-framework te versterken. Hoewel deze chips aanzienlijke kracht bieden, blijven er echter uitdagingen bestaan. Nvidia heeft te maken gehad met meldingen van oververhittingsproblemen met de aankomende Blackwell AI-chips, die mogelijk gevolgen kunnen hebben voor bedrijven die deze inzetten, waaronder Microsoft en Meta.
De startups waarvan Nvidia denkt dat ze de toekomst van AI zijn
Ondanks deze uitdagingen blijft Microsoft zwaar investeren in het uitbouwen van zijn datacenterinfrastructuur. Alistair Speirs, senior directeur van Azure Global Infrastructure bij Microsoft, merkte op dat het bouwen van een effectieve datacenterinfrastructuur kapitaalintensief is en een meerjarenplanning vereist. Deze vooruitstrevende aanpak is van cruciaal belang, vooral omdat de concurrentie tussen technologiegiganten als Google, Amazon en opkomende startups als Anthropic en xAI toeneemt.
De ontwikkeling van AI-chips wordt voortdurend onder de loep genomen, vooral omdat technologiebedrijven ernaar streven de afhankelijkheid van Nvidia te verminderen. Google investeert aanzienlijk in zijn tensor processing units (TPU’s), terwijl Meta onlangs zijn Meta Training- en Inference Accelerator-chips heeft uitgerold. Daarnaast ontwikkelt Amazon zijn Trainium- en Inferentia-chips. Amazon heeft plannen aangekondigd om een nieuw dataverwerkingscluster te creëren met honderdduizenden van zijn nieuwste Trainium-chips voor Anthropic, waarmee zijn toewijding aan de AI-infrastructuur wordt getoond.
De afhankelijkheid van Microsoft van de chips van Nvidia weerhoudt het bedrijf er niet van om zijn eigen AI-versnellers te ontwikkelen, met momenteel ongeveer 200.000 geïnstalleerde Maia-chips. Speirs benadrukte de noodzaak om de technologie van Nvidia te integreren met de eigen ontwikkelingen van Microsoft om unieke diensten aan klanten te leveren. Het bouwen van een uitgebreide AI-infrastructuur omvat niet alleen robuuste verwerkingskracht, maar ook geïntegreerde opslagcomponenten en softwarelagen, wat de complexiteit in de systeemarchitectuur benadrukt.
Uitgelichte afbeeldingscredits: Sam Torres/Unsplash