Microsoft presenteert met de onthulling van de Maia 200 zijn tweede generatie zelfontwikkelde AI-chip. Die wordt niet alleen ingezet voor interne toepassingen, maar draait inmiddels ook de inferentie van de nieuwste GPT-5.2-modellen. Daarmee laat Microsoft zien dat het zijn AI-strategie steeds meer in eigen hand neemt, van datacenter tot softwarelaag.
De Maia 200 is geproduceerd door Taiwan Semiconductor Manufacturing Company op een geavanceerd 3-nanometerproces. De chip telt ongeveer 140 miljard transistoren en is ontworpen met één duidelijk doel voor ogen: snelle en efficiënte inferentie voor grote AI-modellen. In plaats van zich te richten op het langdurig trainen van modellen, is de Maia 200 geoptimaliseerd voor het beantwoorden van gebruikersvragen op grote schaal, precies waar diensten als Copilot en ChatGPT het verschil maken.
Ruwe rekenkracht en ongebruikelijke geheugenkeuzes
Op papier zijn de cijfers indrukwekkend. Microsoft spreekt over meer dan 10 petaflops aan fp4-rekenkracht en ruim 5 petaflops bij fp8. Minstens zo opvallend is de hoeveelheid geheugen. Elke Maia 200 beschikt over 216 GB HBM3e-geheugen met een bandbreedte van circa 7 terabyte per seconde, aangevuld met 272 MB aan SRAM. Die relatief grote hoeveelheid SRAM is geen toeval. Voor chatbottoepassingen, waarbij veel gebruikers gelijktijdig korte verzoeken doen, kan dit type geheugen latency verminderen en de doorvoer verhogen.
Dat idee is niet nieuw. Bedrijven als Cerebras Systems en Groq zetten al langer in op architecturen die snel reageren op veel gelijktijdige queries. Microsoft past een vergelijkbare filosofie toe, maar dan binnen een chip die is ontworpen om op grote schaal in datacenters te draaien.
Netwerk en schaalbaarheid als speerpunt
Niet alleen de chip zelf, ook het systeem eromheen is nieuw. Microsoft kiest voor een tweelaags netwerkontwerp op basis van ethernet, met een aangepaste transportlaag. Binnen een rack zijn vier Maia-accelerators direct en volledig met elkaar verbonden, zonder tussenliggende switches. Op clusterniveau kan de infrastructuur opschalen tot maximaal 6144 accelerators, met een totale bandbreedte van 2,8 terabyte per seconde tussen de chips.
Die schaalbaarheid is essentieel voor Microsofts cloudstrategie. De eerste Maia 200-systemen draaien al in een datacenter in Iowa. Binnenkort volgt een tweede locatie in Arizona, waarna andere regio’s zullen aansluiten. Voorlopig blijven de chips vooral bedoeld voor interne workloads. Wanneer Azure-klanten er direct gebruik van kunnen maken, is nog niet bekend.
Eigen chip, eigen software
Minstens zo belangrijk als de hardware is de software die Microsoft meelevert. Tegelijk met de Maia 200 verschijnt een preview van een nieuwe softwaredevelopmentkit. Die bevat integratie met PyTorch, een Triton-compiler en een low-level programmeertaal voor directe controle over de chip. Triton is een open source tool waar ook OpenAI actief aan bijdraagt en die dezelfde rol vervult als CUDA in het Nvidia-ecosysteem.
Daarmee raakt Microsoft aan een gevoelig punt bij Nvidia. Het succes van Nvidia is niet alleen te danken aan krachtige chips, maar vooral aan de dominante positie van zijn softwarestack. Door ontwikkelaars een alternatief te bieden dat nauw aansluit bij bestaande AI-frameworks, probeert Microsoft die afhankelijkheid te verkleinen. Het is een strategie die ook andere hyperscalers volgen, maar Microsoft koppelt er nu een eigen, volwassen hardwareplatform aan.
Concurrentie tussen cloudreuzen
De timing van de Maia 200 is geen toeval. Grote cloudbedrijven bouwen al jaren aan eigen chips om minder afhankelijk te zijn van Nvidia, dat kampt met hoge prijzen en beperkte beschikbaarheid. Google doet dit met zijn TPU-lijn, terwijl Amazon inzet op Trainium-chips binnen AWS. Volgens Microsoft presteert de Maia 200 per dollar ongeveer 30 procent beter dan de nieuwste hardware die het bedrijf nu inzet, een belangrijke claim in een markt waar energieverbruik en kosten steeds zwaarder wegen.

Ook andere spelers kijken mee. Meta Platforms experimenteert bijvoorbeeld met verschillende AI-chips en werkt samen met cloudpartners om de softwarekloof met Nvidia te verkleinen. De komst van steeds krachtigere alternatieven kan het speelveld voor AI-infrastructuur ingrijpend veranderen.
Minder afhankelijk, meer controle
Voor Microsoft draait het uiteindelijk om controle. Door zelf chips te ontwerpen, kan het bedrijf zijn hardware nauw afstemmen op zijn eigen modellen, diensten en datacenters. Dat levert niet alleen kostenvoordelen op, maar ook strategische flexibiliteit in een tijd waarin AI-rekenkracht een schaars en geopolitiek gevoelig goed is.
De Maia 200 laat zien dat Microsoft inmiddels serieus meedoet in het domein van custom silicon. Niet als experiment, maar als kernonderdeel van zijn AI-platform. Met GPT-5.2 als eerste grote gebruiker is de chip direct gekoppeld aan een van de meest zichtbare AI-toepassingen ter wereld, terwijl het Superintelligence-team de hardware inzet voor het genereren van synthetische data. Zo groeit de Maia-lijn uit tot een stille motor onder Microsofts bredere AI-ambities.





