News

Microsoft stellt eigene AI-Chips und Arm-CPU für Azure Cloud vor

Microsoft hat seine ersten eigenen Chips für künstliche Intelligenz (AI) und Cloud-Computing vorgestellt. Die Azure Maia AI-Chips und die Arm-basierte Azure Cobalt CPU sollen die Leistung, Effizienz und Kosten der Azure-Cloud-Infrastruktur optimieren und Microsoft und seinen Kunden für die Zukunft der AI rüsten.

Die Azure Maia AI-Chips sind speziell für AI-Workloads wie das Training und die Inferenz von großen Sprachmodellen konzipiert. Sie werden einige der größten AI-Workloads auf Azure antreiben, einschließlich Teilen der milliardenschweren Partnerschaft mit OpenAI, bei der Microsoft alle Workloads von OpenAI betreibt. Die Azure Cobalt CPU ist ein 128-Kern-Chip, der auf dem Arm Neoverse CSS-Design basiert und eigens für Microsoft angepasst wurde. Er ist für allgemeine Cloud-Dienste auf Azure ausgelegt.

Beide Chips sind von Microsoft in Eigenregie entwickelt worden, zusammen mit einer tiefgreifenden Überarbeitung des gesamten Cloud-Server-Stacks, um die Leistung, den Stromverbrauch und die Kosten zu optimieren. „Wir überdenken die Cloud-Infrastruktur für das Zeitalter der AI und optimieren buchstäblich jede Schicht dieser Infrastruktur“, sagt Rani Borkar, Leiterin von Azure Hardware Systems and Infrastructure bei Microsoft.

Die Azure Maia AI-Chips, die nach einem hellblauen Stern benannt sind, werden auf einem 5-Nanometer-TSMC-Prozess gefertigt und verfügen über 105 Milliarden Transistoren. Sie unterstützen die ersten MX-Datentypen von Microsoft, die eine Co-Design von Hardware und Software ermöglichen. Dies hilft, schnellere Trainings- und Inferenzzeiten für Modelle zu unterstützen. Die Azure Maia AI-Chips sind außerdem die ersten vollständig flüssigkeitsgekühlten Serverprozessoren von Microsoft. Das Ziel ist es, eine höhere Dichte und Effizienz von Servern zu ermöglichen. Die Chips passen in den bestehenden Datenzentren-Fußabdruck von Microsoft.

Die Azure Cobalt CPU, die nach dem blauen Pigment benannt ist, soll eine hohe Leistung und ein gutes Energiemanagement bieten. Microsoft hat darüber die Möglichkeit, die Leistung und den Stromverbrauch pro Kern und für jede virtuelle Maschine zu steuern. Der Konzern testet derzeit seine Cobalt CPU auf Workloads wie Microsoft Teams und SQL Server, mit Plänen, virtuelle Maschinen für Kunden im nächsten Jahr für eine Vielzahl von Workloads verfügbar zu machen.

Der Konzern arbeitet zudem mit OpenAI an der Entwicklung und dem Testen von Maia zusammen. „Wir waren begeistert, als Microsoft uns zum ersten Mal die Entwürfe für den Maia-Chip zeigte, und wir haben gemeinsam daran gearbeitet, ihn zu verfeinern und mit unseren Modellen zu testen“, sagt Sam Altman, CEO von OpenAI. „Die End-to-End-AI-Architektur von Azure, die jetzt bis hinunter zum Silizium mit Maia optimiert ist, ebnet den Weg für das Training leistungsfähigerer Modelle und die kostengünstigere Bereitstellung dieser Modelle für unsere Kunden.“

Microsoft ist Teil einer Gruppe, die AMD, Arm, Intel, Meta, Nvidia und Qualcomm umfasst, die die nächste Generation von Datenformaten für AI-Modelle standardisieren. Microsoft baut auf der kollaborativen und offenen Arbeit des Open Compute Project (OCP) auf, um ganze Systeme an die Bedürfnisse von AI anzupassen.

Die Namen Maia 100 und Cobalt 100 deuten darauf hin, dass Microsoft bereits an der zweiten Generation dieser Chips arbeitet. „Dies ist eine Serie, es ist nicht nur 100 und fertig… aber wir werden unsere Roadmaps nicht teilen“, sagt Borkar. Es ist nicht klar, wie oft Microsoft neue Versionen von Maia und Cobalt liefern wird, aber angesichts der Geschwindigkeit von AI wäre es nicht überraschend, wenn ein Maia 100-Nachfolger in einem ähnlichen Tempo wie die H200-Ankündigung von Nvidia erscheint.

Der Schlüssel wird nun sein, wie schnell Microsoft Maia in seine Datenzentren bringt, um die Einführung seiner breiten AI-Ambitionen zu beschleunigen, und, wie diese Chips die Preise für die Nutzung von AI-Cloud-Diensten beeinflussen werden. Microsoft ist noch nicht bereit, über diese neuen Serverpreise zu sprechen. Für den Copilot in Microsoft 365 verlangt der Konzern allerdings stolze 30 US-Dollar pro Monat und Nutzer, was darauf hindeutet, dass die „AI-Revolution“ keineswegs billig werden wird.


Quelle: reddit

About author

"Entdeckung besteht darin, den gleichen Gegenstand wie alle anderen zu betrachten, sich aber etwas anderes dabei zu denken."
Related posts
News

Windows 11 24H2 enthält Hinweise auf neue Systemanforderungen für KI-Funktionen

News

Microsoft Store-Update: Direkter App-Download im Browser möglich

News

Windows 11 KI-Explorer: Lokale Ausführung bestätigt - Neue Details enthüllt

News

Microsoft lässt Windows 10-Nutzer mit schwerwiegendem Update-Fehler allein

0 0 votes
Wie findest du diesen Artikel?
Subscribe
Benachrichtige mich zu:
guest

0 Kommentare
Inline Feedbacks
View all comments