Top 10 KI Hardware Unternehmen

von | 25. August 2022 | Top 10

Das Trainieren von Machine Learning (ML) Algorithmen, insbesondere von künstlichen neuronalen Netzen wie sie große Sprachmodelle nutzen, bringt aktuelle Hardware immer weiter an ihre Grenzen. Für die breite Implementierung und Nutzung von KI ist spezialisierte und leistungsstarke Hardware daher sehr wichtig. Dezidierte KI-Chips werden immer beliebter, denn sie bieten effizientere Möglichkeiten zur Parallelisierung von Berechnungen. Einige Start-Ups sowie diverse Tech-Riesen entwickeln schon heute state-of-the-art KI-Hardware und treiben so die Forschung und Nutzung von ML und vor allem von Deep Learning weiter voran. In diesem Beitrag stellen wir die Top 10 KI-Hardware Unternehmen vor, die derzeit mit innovativen Ansätzen neue KI-Chips entwerfen und somit die Voraussetzungen für das ML der Zukunft schaffen.

Platz 10 – Groq

Das Startup Groq wurde von ehemaligen Google-Mitarbeitern gegründet und entwickelt KI- und High-Performance-Prozessoren für ML-Anwendungen, die eine niedrige Latenz benötigten. Mit einer von Grund auf neu entwickelten Single-Chip-Architektur haben Groq Prozessoren eine niedrige Latenz und bieten fast lineare Skalierung entwickelt für Echtzeit-ML-Anwendungen. Anstatt zu versuchen die Architektur der Konkurrenz zu übertrumpfen, startete Groq mit der Entwicklung eines Software-Compilers. Dies hat einen entscheidenden Vorteil: Die Infrastruktur des Chips kann so deutlich effizienter genutzt werden. 

Platz 9 – Hailo

Hailos Deep-Learning-Hardwaretechnologie soll die Vorteile von KI auch in kleinem Maßstab nutzbar machen. Geeignet für Roboter, autonome Fahrzeuge und andere Egde-Geräte, bietet der Hailo-8 Prozessor Deep Learning Funktionalität schnell und mit niedrigem Energiebedarf. Der von Hailo entwickelte Compiler soll verschiedene Schichten von künstlichen neuronalen Netzen auf verschiedene Bereiche des Chips verteilen und somit eine schnellere und effiziente Datenverarbeitung gewährleisten. 

Platz 8 – Graphcore

Graphcore verfolgt einen anderen Ansatz: Als Europas höchstbewerteter KI-Chip-Hersteller hat sich das Start-Up auf die Entwicklung von IPUs (Intelligent Processing Units) spezialisiert. Graphcores Intelligent Processing Units sollen ML-Training durch eine für Parallel Processing optimierte Architektur maßgeblich beschleunigen. Statt Speicher- und Berechnungskapazitäten zu trennen, haben die Chips eine MIMD (Mehrfachanweisung, Mehrfachdaten) Architektur. Diese macht es möglich, kleine Datenpakete nah am jeweiligen Kern zur Berechnung zu speichern und parallel zu verarbeiten. Große Datensätze können dadurch schneller verarbeitet werden und die benötigte Zeit zum Training eines ML-Modells reduziert sich. Im Kontrast zu Berechnungen mit GPUs ähnlicher Preisklasse und mit einem vergleichbaren Stromverbrauch fällt die Trainingszeit eines ML-Modells dabei deutlich geringer aus. 

Platz 7 – Cerebras Systems

Das Unternehmen Cerebras Systems hat sich auf die Entwicklung von besonders großen Deep Learning Prozessoren spezialisiert. Mit einer Größe von 462,25 cm², 850.000 Prozessorkernen und 40 GB Arbeitsspeicher hat Cerebras den größten KI-Prozessor der Welt entwickelt – die Wafer-Scale-Engine 2. Der Prozessor mit der Größe eines iPads ist für die Berechnung linearer Algebra konzipiert, der Grundlage von Deep Learning und neuronaler Netze.  Verfügbar als Standalone-System mit Kühlung, Stromversorgung und diversen Schnittstellen, packt der Prozessor die Leistung eines ganzen Serverraums in den Formfaktor eines Minikühlschranks.

Platz 6 – IBM

Als einer der ersten AI-Hardwareentwickler hat IBM 2014 seinen ‚Neuromorphic Chip TrueNorth AI‘ vorgestellt. Der Chip enthält 5,4 Milliarden Transistoren, eine Million Neuronen sowie 256 Millionen Synapsen und kann tiefe Network Interference durchführen sowie hochqualitativ Daten interpretieren. Kürzlich hat IBM den Telum Prozessor vorgestellt – einen für spezifische Use Cases entwickelten KI-Chip. Mit diesem neuen Chip setzt IBM vor allem auf den Verkauf an Hersteller sowie Server- und Datenzentren.

Platz 5 – Google

Der Tech-Gigant Google ist bekannt für seine Cloud-Services und -Infrastruktur sowie die gleichnamige Suchmaschine. Jedoch hat auch Google in der Vergangenheit KI-Hardware entwickelt: Mit dem Tensor Processing Unit (TPU) hat Google Cloud einen AISC (Application-Specific Integrated Circuit) AI Accelerator hervorgebracht, entwickelt für tiefe neuronale Netze und „herkömmliches“ ML. Der Chip wird hauptsächlich von Google Cloud Kunden auf der ganzen Welt zur Beschleunigung von ML-Berechnungen genutzt. Außerdem hat das Unternehmen den Edge TPU entwickelt, eine deutlich kleinere Version des TPUs. Dieser ist als externer AI Accelerator für PCs sowie als lötbarer Chip für ML-Boards und Edge-Hardware gedacht.

Platz 4 – SambaNova Systems

Ein völlig anderer Ansatz als die anderen Kandidaten auf dieser Liste verfolgt SambaNova Systems: Das Startup least komplette Datenzentren – ausgestattet mit von SambaNova entwickelter Hardware – und bietet damit sowohl die Infrastrukur wie auch eine Plattform zu Entwicklung von ML-Projekten an. Die Software des Unicorn Startups bietet ML, NLP und Computer Vision Services basierend auf domänespezifischen Daten, die durch den Kunden eingebracht werden. Während andere Hardware-Entwickler sich meist nur auf Hardware und Compiler spezialisieren, umfasst SambaNova die komplette Infrastruktur, um Unternehmen KI leichter zugänglich zu machen.

Platz 3 – AMD

Weil Grafikprozessoren derzeit die beliebteste und ökonomischste Option für ML sind, spielen die von AMD entwickelten GPUs für Big Data & KI eine große Rolle. Das amerikanische Unternehmen, das hauptsächlich CPUs und GPUs für Server, Rechenzentren und den Privatgebrauch entwickelt, hat auch HPC GPUs herausgebracht, einen GPU-Cluster, der für maschinelles Lernen geeignet ist. Diese AI-Accelerator sind in Rechenzentren auf der ganzen Welt weit verbreitet und können dabei helfen, Big Data Verarbeitung und Berechnungen in großem Maßstab zu beschleunigen.

Platz 2 – Intel

Intel ist einer der größten Hersteller im Bereich Computerhardware mit einer langen Geschichte in der Technologieentwicklung. 2017 hat das Unternehmen die Umsatzschallmauer von einer Milliarde US-Dollar für KI-Chips durchbrochen. Intels Xeon-Prozessoren, die für eine Vielzahl von Aufgaben geeignet sind, einschließlich Berechnungen in Rechenzentren, haben den kommerziellen Erfolg stark beeinflusst. Gaudi ist ein neuer Trainingsbeschleuniger für neuronale Netze von Intel, der eine nahezu lineare Skalierbarkeit bei immer größeren Modellen bietet und relativ niedrige Gesamtbetriebskosten hat. Für das Inferencing hat Intel den Goya entwickelt, der für Durchsatz und Latenz optimiert ist. Intel® NCS2 ist der neueste KI-Chip von Intel und wurde speziell für Deep Learning entwickelt. Wie man sieht, hat Intel einige ernstzunehmende Chips in seinem Arsenal. Das Unternehmen verfolgt dabei allerdings einen anderen Ansatz als die GPU-Entwickler, weil es sich hauptsächlich auf CPU-gestütztes ML spezialisiert.

Platz 1 – NVIDIA

NVIDIA entwickelt schon seit einiger Zeit hochwertige Grafikprozessoren für den Spielebereich. So nutzen Personal Computer, Konsolen, Rechenzentren und Server auf der ganzen Welt NVIDIA-GPUs für alle Arten von Berechnungen. Die Chips von NVIDIA sind nach wie vor die erste Wahl für Rechenzentren, die parallele Berechnungen durchführen, wie z. B. maschinelles Lernen und Deep Learning. NVIDIA bietet neue KI-Chips für HPC (High Performance Computing), Date Center, Edge-Geräte wie autonome Fahrzeuge, Handys und mehr an. Der „Full Stack Platform for Accelerated Computing“ ermöglicht mithilfe verschiedener SDKs (Software Developement Kits), Software und Hardware optimal zu verbinden und Applikationen für KI Use Cases in jeglichen Anwendungsbereichen individuell entwickeln. Mit CUDA als bewährte Plattform für Parallel Computing und Programmierschnittstelle können die Hardwareressourcen optimal eingesetzt werden.

<a href="https://www.alexanderthamm.com/de/blog/author/lukaslux/" target="_self">Lukas Lux</a>

Lukas Lux

Lukas Lux ist Werkstudent im Bereich Customer & Strategy bei der Alexander Thamm GmbH. Neben seinem Studium des Sales Engineering & Product Management mit dem Schwerpunkt IT-Engineering beschäftigt er sich mit den aktuellsten Trends und Technologien im Bereich Data & AI und stellt diese in Zusammenarbeit mit unseren [at]Experten für euch zusammen.

0 Kommentare