sdecoret - stock.adobe.com

Die 10 führenden KI-Hardware- und Chiphersteller im Jahr 2025

Unternehmen bringen immer neue KI-Produkte auf den Markt, um mit der Konkurrenz Schritt zu halten. Hier sind die zehn führenden KI-Hardware- und Chiphersteller im Jahr 2025.

Mit zunehmender Beliebtheit von KI-Anwendungen hat sich der Markt für KI-Hardware zu einem hart umkämpften Bereich entwickelt. KI-Hardware-Anbieter müssen bei der Produktentwicklung schnell reagieren, um die neuesten und effektivsten Produkte auf dem Markt zu haben.

Obwohl sich diese zehn KI-Hardware-Unternehmen auf CPUs und Data-Center-Technologien konzentrieren, haben sich ihre Spezialisierungen mit der Expansion des Marktes langsam erweitert. Mittlerweile konkurrieren diese Unternehmen darum, den leistungsstärksten und effizientesten KI-Chip auf dem Markt zu entwickeln.

10 Top-Unternehmen auf dem KI-Hardwaremarkt

Die folgenden Unternehmen für KI-Hardware- und Chipherstellung sind in alphabetischer Reihenfolge aufgeführt.

Alphabet

Alphabet, die Muttergesellschaft von Google, bietet verschiedene Produkte für Mobilgeräte, Datenspeicherung und Cloud-Infrastruktur an. Cloud Tensor Processing Unit (TPU) v5p wurde speziell für das Training von Large Language Models (LLM) und generativer KI entwickelt. Jeder TPU v5p-Pod verfügt über 8.960 Chips und jeder Chip hat eine Bandbreite von 4.800 Gbps.

TPU v6e ist der jüngste Trillium-Chip, der im Oktober 2024 auf den Markt kam. Dieser Chip ähnelt TPU v5e, mit einer Pod-Größe von 256 Chips und vier Anschlüssen pro Chip. Der TPU v6e-Chip hat jedoch eine 4,7-mal höhere Spitzenrechenleistung pro Chip als TPU v5e.

Alphabet hat sich auf die Herstellung leistungsstarker KI-Chips konzentriert, um die Nachfrage nach Großprojekten zu decken. Im Dezember 2024 brachte Alphabet einen neuen Quantencomputer-Chip namens Willow auf den Markt. Mit 105 Qubits und der Möglichkeit zur Skalierung reduziert der Willow-Chip Fehler beim Quantencomputing schneller und genauer als seine Vorgänger.

AMD

AMD veröffentlichte in der zweiten Hälfte des Jahres 2024 sein neuestes Mikroarchitektur-Chipdesign, Zen 5, und seine nächste Generation von Ryzen-Prozessoren, die Ryzen 9000-Serie.

Der neue Chip der Instinct MI300-Serie von AMD, MI325X, wurde ebenfalls im Jahr 2024 veröffentlicht. Dieses Upgrade von MI300X hat eine höhere Bandbreite von 6 TB/s. Eine verbesserte Chip-Version, MI355X, wird voraussichtlich im Jahr 2025 auf den Markt kommen. Diese KI-GPU-Beschleuniger sollen mit Nvidias Blackwell B100 und B200 konkurrieren.

Apple

Die Apple Neural Engine, spezialisiert auf Apple-Chips, hat das KI-Hardwaredesign und die Leistung verbessert. Die Neural Engine wird seit dem M1-Chip kontinuierlich weiterentwickelt. Im Vergleich zur vorherigen Generation sind MacBooks mit einem M1-Chip 3,5-mal schneller in der allgemeinen Leistung und fünfmal schneller in der Grafikleistung.

Nach dem Erfolg des M1-Chips kündigte Apple weitere Generationen an. Im Jahr 2024 brachte Apple den M4-Chip auf den Markt. Der M4-Chip verfügt über eine Neural Engine, die dreimal schneller ist als der M1-Chip und 1,5-mal schneller als der M2-Chip. Der M5-Chip wird voraussichtlich in der ersten Hälfte des Jahres 2025 auf den Markt kommen.

Apple und Broadcom entwickeln einen KI-spezifischen Serverchip, Baltra. Dieser Chip wird voraussichtlich 2026 auf den Markt kommen, aber nur intern von den Unternehmen genutzt werden.

AWS

AWS hat seinen Schwerpunkt von der Cloud-Infrastruktur auf Chips verlagert. Die Elastic Compute Cloud (EC2) Trn1-Instances sind speziell für Deep Learning und groß angelegte generative Modelle konzipiert. Sie verwenden AWS Trainium KI-Beschleunigerchips, um zu funktionieren.

Die trn1.2xlarge-Instance war die erste Iteration. Sie verfügte nur über einen Trainium-Beschleuniger, 32 GB Arbeitsspeicher und eine Netzwerkbandbreite von bis zu 12,5 Gbps. Mittlerweile verfügt AWS über die EC2 Trn2-Instances und UltraServer. Eine Trn2-Instance verfügt über 16 Trainium2-Chips, 1,5 TB Beschleunigerspeicher und eine Bandbreite von 46 TBps. Der Trn2 UltraServer verfügt über 64 Trainium2-Chips auf vier Trn2-Instanzen, 6 TB gemeinsam genutzten Beschleunigerspeicher und 185 TB/s Bandbreite.

AWS Inferentia ist ein Chip für maschinelles Lernen, der kostengünstig leistungsstarke Inferenzvorhersagen generiert. Trainium-Beschleuniger trainieren Modelle, während Inferentia-Beschleuniger Modelle bereitstellen.

Cerebras Systems

Cerebras macht sich mit der Veröffentlichung seiner dritten Generation der Wafer-Scale-Engine, WSE-3, einen Namen. WSE-3 gilt mit 900.000 KI-Kernen auf einer Unit als der schnellste Prozessor der Welt. Jeder Kern hat Zugriff auf eine Speicherbandbreite von 21 Petabyte pro Sekunde.

Im Vergleich zum H100-Chip von Nvidia hat WSE-3 eine 7.000-mal größere Bandbreite, 880-mal mehr On-Chip-Speicher und 52-mal mehr Kerne. Dieser WSE-3-Chip ist auch 57-mal größer, sodass mehr Platz erforderlich ist, um den Chip in einem Server unterzubringen.

IBM

Telum war der erste spezialisierte KI-Chip von IBM, und Telum II wird 2025 auf den Markt kommen. IBM hat sich gleichzeitig zum Ziel gesetzt, einen leistungsstarken Nachfolger zu entwickeln, der mit der Konkurrenz mithalten kann.

Im Jahr 2022 gründete IBM die Artificial Intelligence Unit. Der KI-Chip ist speziell für diesen Zweck entwickelt worden und läuft besser als die durchschnittliche Allzweck-CPU. Der Spyre Accelerator von IBM wird 2025 auf den Markt kommen und basiert auf einer ähnlichen Architektur. Spyre enthält 25,6 Milliarden Transistoren.

IBM arbeitet außerdem am KI-Chip NorthPole, für den es noch kein Veröffentlichungsdatum gibt. NorthPole unterscheidet sich vom TrueNorth-Chip von IBM. Die NorthPole-Architektur ist so strukturiert, dass sie den Energieverbrauch verbessert, den Platzbedarf des Chips verringert und eine geringere Latenzzeit bietet. Der NorthPole-Chip soll eine neue Ära energieeffizienter Chips einläuten.

Intel

Intel hat sich mit seinen KI-Produkten auf dem CPU-Markt einen Namen gemacht.

Die Xeon 6-Prozessoren wurden 2024 veröffentlicht und an Rechenzentren ausgeliefert. Diese Prozessoren bieten bis zu 288 Kerne pro Sockel, was eine schnellere Verarbeitungszeit und die Ausführung mehrerer Aufgaben gleichzeitig ermöglicht.

Intel hat den Gaudi 3-GPU-Chip auf den Markt gebracht, der mit dem H100-GPU-Chip von Nvidia konkurriert. Der Gaudi-3-Chip trainiert Modelle 1,5-mal schneller, gibt Ergebnisse 1,5-mal schneller aus und verbraucht weniger Strom als der H100-Chip von Nvidia. Intel hat die Markteinführung des Falcon-Shores-KI-GPU-Chips abgesagt. Der Jaguar-Shores-Chip soll jedoch weiterhin 2026 als Nachfolger der Gaudi-3-Chips auf den Markt kommen. Das Unternehmen konzentriert sich jedoch nicht mehr auf eigenständige KI-Beschleuniger.

Nvidia

Nvidia wurde zu einem starken Konkurrenten auf dem Markt für KI-Hardware, als sein Wert Anfang 2023 die Marke von 1 Billion US-Dollar überschritt. Zu den aktuellen Produkten des Unternehmens gehören die B100- und B200-Chips und die Blackwell-GPU-Mikroarchitektur. Beide Produkte sind entscheidende Technologien für ressourcenintensive Modelle. Nvidia bietet auch KI-gestützte Hardware für den Gaming-Sektor an.

Die Blackwell-GPU-Mikroarchitektur ersetzt die Grace-Hopper-Plattform. Blackwell ist 2,5-mal schneller und 25-mal energieeffizienter als seine Vorgänger. Die Blackwell-Mikroarchitektur wurde entwickelt, um die Effizienz bei wissenschaftlichen Berechnungen, Quantencomputing, KI und Datenanalysen zu steigern.

Nvidia plant die Einführung eines neuen Beschleunigers, Rubin, Ende 2025 oder Anfang 2026.

Qualcomm

Obwohl Qualcomm im Vergleich zu seinen Konkurrenten relativ neu auf dem Markt für KI-Hardware ist, macht seine Erfahrung im Telekommunikations- und Mobilfunksektor das Unternehmen zu einem vielversprechenden Konkurrenten.

Der Cloud AI 100-Chip von Qualcomm schlug den Nvidia H100 in einer Reihe von Tests. Ein Test bestand darin, die Anzahl der Serverabfragen im Rechenzentrum zu ermitteln, die jeder Chip pro Watt ausführen konnte. Der Cloud AI 100-Chip von Qualcomm erreichte insgesamt 227 Serverabfragen pro Watt, während der Nvidia H100 auf 108 kam. Der Cloud AI 100-Chip schaffte es außerdem, bei der Objekterkennung 3,8 Abfragen pro Watt zu erzielen, verglichen mit 2,4 Abfragen beim Nvidia H100.

Im Jahr 2024 brachte das Unternehmen den mobilen Chip Snapdragon 8s Gen 3 auf den Markt. Dieser Chip unterstützt 30 KI-Modelle und verfügt über generative KI-Funktionen wie Bilderzeugung und Sprachassistenten. Anfang 2025 veröffentlichte Qualcomm die neueste Version, Snapdragon 8 Elite, welche die KI-Leistung um 45 Prozent verbessert.

Tenstorrent

Tenstorrent baut Computer für KI und wird von demselben Mann geleitet, der auch die Zen-Chip-Architektur von AMD entworfen hat, Jim Keller. Tenstorrent hat mehrere Hardwareprodukte, darunter seine Wormhole-Prozessoren und Galaxy-Server, die den Galaxy Wormhole Server bilden.

Wormhole n150 und n300 sind die skalierbaren GPUs von Tenstorrent. N300 verdoppelt fast jede Spezifikation von n150. Diese Chips sind für die Netzwerk-KI und werden in Galaxy-Module und -Server eingebaut. Jeder Server verfügt über bis zu 32 Wormhole-Prozessoren, 2.560 Kerne und 384 GB GDDR6-Speicher.

Erfahren Sie mehr über Data-Center-Betrieb