Na maanden van geruchten is bevestigd dat Microsoft zijn eigen AI-chips gaat bouwen. De eerste hiervan, de Azure Maia 100- en Cobalt 100-chips, zal ergens in 2024 arriveren.
Deze stap van Microsoft is waarschijnlijk bedoeld om een overmatig vertrouwen op Nvidia te voorkomen, waarvan de H100 GPU's vaak worden gebruikt voor het genereren van AI-afbeeldingen en taalmodeltools.
De Azure Cobalt 100-chip is speciaal ontworpen voor Microsoft om op de cloud gebaseerde services van Azure aan te sturen, en het ontwerp ervan zal naar verluidt controle over de prestaties en het energieverbruik per kern mogelijk maken.
Daartoe wil Microsoft de Azure-cloudinfrastructuur volgens verklaringen van het hoofd van Azure-hardwaresystemen en -infrastructuur bij Microsoft Rani Borker in een recent interview. Borker zei gedeeltelijk: “We heroverwegen de cloudinfrastructuur voor het tijdperk van AI en optimaliseren letterlijk elke laag van die infrastructuur.”
De Maia 100 AI-acceleratorchip is, zoals de naam al doet vermoeden, ontworpen om cloudgebaseerde AI-bewerkingen uit te voeren, zoals taalmodeltraining. De Maia 100-chip wordt momenteel getest op GPT 3.5 Turbo. Zoals Borkar heeft toegevoegd:
“Maia is de eerste volledig vloeistofgekoelde serverprocessor die door Microsoft is gebouwd. Het doel hier was om een hogere dichtheid van servers met een hogere efficiëntie mogelijk te maken. Omdat we de hele stapel opnieuw vormgeven, denken we doelbewust over elke laag na, zodat deze systemen daadwerkelijk in ons huidige datacenter passen.”
Op dit moment zijn de volledige specificaties en prestatiebenchmarks voor de Maia 100- en Cobalt 100-chips nog niet openbaar gemaakt. Het is echter al bekend dat deze chips slechts de eerste van een serie zijn en dat de tweede generatie van de Maia 100- en Cobalt 100-chips zich al in de ontwerpfase bevindt.