Microsoft lanciert KI-Beschleuniger mit neuem Speicherdesign
Unter dem Namen Maia 200 stellt Microsoft seinen neuen KI-Beschleuniger vor. Der Nachfolger von Maia 100 rechnet über 10 PetaFLOPS bei 4-Bit-Präzision. Buchbar ist der Prozessor vorerst in US-amerikanischen Cloud-Regionen.
Maia 200 heisst der neue KI-Beschleuniger von Microsoft. Das neue Produkt - der Nachfolger des im Herbst 2023 erstmals vorgestellten Maia 100 - punkte besonders bei der Inferenz, also dem produktiven Einsatz von KI-Modellen in Anwendungen, teilt Microsoft mit.
Konkret soll Maia 200 eine Leistung von über 10 PetaFLOPS bei 4-Bit-Präzision (FP4) und mehr als 5 PetaFLOPS bei 8-Bit-Präzision (FP8) erreichen. Damit übertreffe man aktuelle KI-Beschleuniger der Konkurrenz, schreibt der Hyperscaler in einem Blogbeitrag: Im FP4-Rechnen übertreffe das Produkt etwa den seit Dezember 2025 allgemein verfügbaren Trainium 3 von Amazon Web Services (AWS, um das Dreifache. Im FP8-rechnen übertreffe man auch die 7. Generation von Googles TPU. Zu den Vergleichen bemerkt "Heise" jedoch, der AWS-Prozessor sei nicht für die Inferenz, sondern fürs KI-Training konzipiert. Dennoch lasse sich erkennen, dass Microsofts Modell vor allem beim Inferencing von grossen KI-Modellen mit FP4-Gewichten sehr hohe Rechenleistung liefere.
Abgesehen von der im Vergleich zum Vorgängermodel erhöhten Leistung hebt Microsoft auch die überarbeitete Speicherinfrastruktur hervor: Sie setze auf schmalere Zahlenformate (narrow-precision datatypes), eine spezialisierte DMA-Einheit für den schnellen Datentransfer, schnellen On-Chip-SRAM sowie ein eigens ausgelegtes Netzwerk auf dem Chip (NoC), das hohe Bandbreiten ermöglicht. Die RAM-Transfergeschwindigkeit beziffert Microsoft mit 7 Terabytes pro Sekunde. Ganz ohne Fachjargon schreibt Microsoft, dass ein Maia 200 die momentan grössten KI-Modelle mühelos ausführen könne und noch reichlich Spielraum für grössere Modelle in der Zukunft bleibe.
Wer Maia 200 nutzen will, kann dies über die Microsoft-Azure-Cloud tun. Allerdings ist das Angebot zum Start nur in ausgewählten US-amerikanischen Cloud-Regionen verfügbar.
Lesen sie auch: OpenAI entwirft seine eigenen KI-Chips. Für die Produktion spannt das Unternehmen hinter ChatGPT mit Broadcom zusammen. Es partnert aber auch mit weiteren Tech-Unternehmen, um seinen Halbleiterbedarf zu decken.
Bundesrat muss KI-Auswirkungen aufs Steuersystem untersuchen
Apple eröffnet zwei neue Flagship-Stores in der Schweiz
KI-Sicherheitslücken nehmen zu und werden kritischer
Huawei Schweiz zeichnet Enterprise-Business-Partner aus
Nvidia präsentiert Datacenter-CPU Vera und KI-Plattform Nemoclaw
Schweizer Onlinehandel wächst 2025 um 6 Prozent
SDEA gewinnt Award für Nachhaltigkeits-Plattform
Harry Potter meets Bridgerton
So schleusen Angreifer Schadsoftware über gefälschte Rechnungen ein