AT_Logo

KI-Beschleuniger

Was ist ein KI-Beschleuniger?

KI Beschleuniger (oder auch KI-Akzeleratoren) sind Hardware-Bausteine, die eine Beschleunigung von KI Rechenaufgaben ermöglichen. Akzeleratoren sind Turbo Prozessoren, die spezifische Aufgaben wie etwa Mustererkennung, Analysen von unstrukturierten Daten, Monte-Carlo-Simulationen, Streaming-Aufgaben oder auch einen Aufbau neuronaler Netze erlauben.

Für KI-Aufgaben allgemein genügen herkömmliche Prozessoren schon lange nicht mehr und in vielen Rechenzentren kommen deutlich schnellere Grafik-Prozessoren (GPUs) zum Einsatz. Die Rechenoperationen der Bildverarbeitung ähneln denen von Neuronalen Netzen und daher lohnt sich eine entsprechende GPU-Nutzung. Allerdings sind solche GPUs nicht speziell für Aufgaben von Deep Learning entwickelt worden und sie stoßen deswegen schnell an ihre Grenzen.

Die Hardware bildet damit einen Durchsatz-Flaschenhals. Inzwischen entwickeln aber viele Chip-Hersteller Akzeleratoren, die die Rechengeschwindigkeit vom System kräftig erhöhen können. KI-Akzeleratoren gibt es vor allem vom Hersteller Nvidia. So nutzt Google die „Tesla P100“ und die „Tesla K80“ GPUs bei der „Google Cloud Plattform“. Auf den Markt kommen hochperformante Systemeinheiten und es gibt „neuro-optimierte“ ASIC (Application-Specific Integrated Circuits). Diese werden in Endgeräten wie Smartphones, Datenbrillen und IP-Kameras sowie in Kleingeräten genutzt. Solche Chips eignen sich nur für spezifische Funktionen und sind dafür konstruiert. Spezialchips spielen ihre Vorteile beim Deep Learning aus und hoch beschleunigte Supercomputer helfen bei umfangreichen KI-Berechnungen. Vor allem Tensor Processing Unit (TPU) von Google kann mit seiner ASIC-Architektur für KI-Beschleunigung aufwarten.

Auch High Performance Computing (HPC) und Hyperscale bringen mehr Leistungsfähigkeit für KI-Berechnungen. Große Hoffnungen liegen auch beim Quantencomputing – den Rechnern der Zukunft. Ebenfalls für die Zukunft vielversprechend sind Neuromorphe Mikrochips.

KI-Beschleuniger mit Zusatzkarte oder GPU?

Von Kontron gibt es jetzt ein neues Konzept für den Einsatz bei Künstlicher Intelligenz. Die „Kontron Industrial AI Platform“ bietet hohe Performance und mit einer Zusatzkarte beschleunigt sie die Berechnungen. So wird das neueste Smarc-Modul die GPU nutzen, um mehr Leistung zu erhalten.

Die Künstliche Intelligenz gewinnt im Intelligent Edge in der industriellen Automatisierung deutlich an Bedeutung. Die TPU (Tensor Processing Unit) unterstützt Small- und Low Power-Applikationen mit nur 1 Watt für 2 TOPS. So bietet eine einfache USB-Kamera ohne TPU nur 6 Bilder pro Sekunde und eine mit TPU eine fünffache Geschwindigkeit von 30 Bilder in der Sekunde.

Industrie 4.0-Applikationen benötigen viel Rechenleistung. Objekterkennung, Klassifizierung und Qualitätsinspektion von Objekten sowie Predictive Maintenance kommen zum Einsatz und basieren dabei auf KI-Algorithmen. Bei Point-of-Sales-Applikationen ist Künstliche Intelligenz immer wichtiger. Werbung und relevante Informationen sollen zielgerichteter platziert werden. Zusatzkarten bieten eine hohe Performance und sind für spezielle Anwendungen ideal. GPUs hingegen sind preiswert und allgemein nützlich bei der Berechnung von KI-Aufgaben.

Welche KI-Beschleuniger gibt es?

Es stellt sich die Frage, welche Hardware zum Einsatz kommen soll, die möglichst schnell und effizient im Betrieb ist? Bei der KI gibt es zwei große Anwendungsbereiche, die eine Rolle spielen. Da ist einerseits das besonders rechenzeitintensive Trainieren der Neuronalen Netze und andererseits das Inferencing, also das Schlussfolgern aus eingehenden Inputs, die eigentliche KI-Leistung.

Durch das Training lernt das Machine-Learning-System von einer Vielzahl von aufbereiteten Beispieldaten. Die Güte der Schlussfolgerung von KI-Modellen kann sich im Laufe der Zeit immer weiter verbessern. Nach dem Abschluss von der Lernphase ist das KI-System sogar bereit, auch unbekannte Daten zu beurteilen. Verwendet wird für das Machine-Learning-Verfahren das Framework TensorFlow für Deep Learning. So kann schließlich in der Produktion die KI-Anwendung Fertigungsteile nach guten Teilen und Ausschussware klassifizieren.

Wichtige KI-Beschleuniger sind Grafikkarten von NVIDIA. Speziell für KI optimierte GPUs können Hunderte von parallelen Berechnungen umsetzen und schaffen eine Rechenleistung von über 100 TeraFLOPS. Die Nutzer von KI haben die Wahl zwischen Standard-Servern, GPUs und KI-Chips. Je nach Bedarf können entsprechende Hardware-Bausteine eingesetzt werden. NVIDIA ist wirklich schnell und braucht nur 75 Watt im Betrieb. Das Inferencing läuft bei einer geringen Stromaufnahme. Empfohlen wird für das Training von Machine-Learning-Modellen eine Fujitsu NVIDIA GPU mit Volta Kernen – wie etwa eine Tesla V100. Solche Karten sind wirklich groß und belegen zwei Slots. Sie verbrauchen viel Strom und haben einen höheren Preis. Bei anspruchsvollen Anforderungen gibt es die DLU für Deep Learning.

Data Navigator Newsletter