AT_Logo

Was ist AI 2.0? – Auf zur nächsten Evolutionsstufe

von | 1. Juni 2021 | Grundlagen

Viele Unternehmen haben gerade erst damit begonnen, sich mit den Anwendungsmöglichkeiten von Künstlicher Intelligenz auseinanderzusetzen. Nur wenige schöpfen die Potenziale bereits voll aus. Währenddessen schreitet die Entwicklung von KI in Forschung und Wissenschaft rasant voran und es entstehen eine Reihe von neuen Verfahren, die die Anwendung von KI auf die nächste Stufe heben. 

In Buch „AI Superpowers“ beschreibt Kai-Fu Lee vier Wellen der Etablierung von AI-Technologien. In der ersten Phase, dem „Internet AI“, liegt der Fokus auf Anwendungen, die auf Basis von großen Datenmengen aus dem Internet und der Analyse des Nutzerverhaltens zur Verbesserung der User Experience und dem personalisierten Ausspielen von Content dienen. Die Entwicklung und Anwendung von AI-Anwendungen fand im Wesentlichen bei großen Internet- und E-Commerce-Unternehmen statt.  

Darauf folgt die zweite Phase, AI 2.0 – hier geht es um „Business AI“, also die Nutzung von AI in Unternehmen. 

AI 2.0 im Business 

In der Phase AI 2.0 werden auf Basis von historischen Unternehmensdaten und anderen Quellen Analysen und Vorhersagen in den verschiedensten Bereichen zur Effizienzsteigerung und dem Aufbau von neuen Geschäftsmodellen genutzt. Nutzer und zum Teil auch Entwickler von AI-Anwendungen sind nicht nur digitale Unternehmen, sondern Firmen aus allen Branchen und aller Größen. 

Das wirtschaftliche Wachstumspotential von AI 2.0 ist enorm und wurde zum Beispiel in einer Studie von PWC auf 15,7 Billionen Dollar geschätzt. 

AI 2.0 Infrastrukturen 

Auch bezüglich Konzepten und Infrastrukturen gibt es umfangreiche neue Entwicklungen. Wichtig ist hier vor allem die Möglichkeit, skalierbare und produktionsreife KI-Anwendungen entwickeln zu können. Daten- und AI-Produkte werden mithilfe von Plattformen und Templates implementiert und über MLOps-Prozesse agil in die Produktion überführt. Daneben ist es wichtig, in den Unternehmen auch die erforderlichen organisatorischen Strukturen und Prozesse zu etablieren. Hierfür müssen Datenstrategien entwickelt, Data-Governance-Konzepte implementiert sowie Rollen und Verantwortlichkeiten definiert werden. 

AI 2.0 Technologien 

Zu den neuen Technologien im Rahmen von AI 2.0 gehören nach einem aktuellen Forrester Report folgende Elemente: 

  • Transformer-Netzwerke 
  • Synthetische Daten  
  • Reinforcement Learning   
  • Federated Learning  
  • Causal Inference  

In AI 1.0 wurde der Fokus auf Mustererkennung, aufgabenspezifische Modelle sowie ein zentrales Training von Modellen und deren Ausführung gelegt. Im Unterschied dazu zeichnet sich AI 2.0 durch die Etablierung von Modellen zur Generierung von Sprache, Bildern und anderen Daten sowie durch die universelle Einsetzbarkeit von KI, zentral oder vor Ort, aus – at the Edge. 

Schauen wir uns die 5 Kernelemente von AI 2.0 einmal näher an: 

Transformer  

Transformer-Netzwerke können Aufgaben mit einem Zeit- oder Kontextelement bearbeiten, wie zum Beispiel die Verarbeitung und Generierung natürlicher Sprache. Diese Weiterentwicklung ermöglicht es, riesige Modelle zu trainieren, die mehrere Aufgaben auf einmal mit höherer Genauigkeit und weniger Daten ausführen als einzelne Modelle, die separat arbeiten. Aktuell prominentester Vertreter dieser Kategorie ist das enorm mächtige GPT-3 Modell von OpenAI. 

Synthetische Daten 

Eine der größten Herausforderung bei der Erstellung von KI-Modellen ist die Verfügbarkeit einer ausreichend großen, nutzbaren Trainingsdatenmenge. Synthetische Daten lösen dieses Problem und verbessern die Genauigkeit, Robustheit und Verallgemeinerbarkeit von Modellen. In Anwendungen für die Objekterkennung, dem autonomen Fahren, dem Gesundheitswesen und vielen weiteren Bereichen, können synthetische Daten für die Erstellung von KI-Modellen genutzt werden. 

Reinforcement Learning 

Reinforcement Learning ist kein neues Konzept, wurde in der Vergangenheit jedoch nur wenig genutzt. KI-Anwendungen können durch Reinforcement Learning schnell auf Veränderungen in den Daten zu reagieren, indem sie aus der Interaktion mit einer realen oder simulierten Umgebung durch „Trial and error“ lernen.  

Federated Learning 

Ein Hindernis für das Training von KI-Modellen ist die Notwendigkeit, Daten aus verschiedenen Quellen auf einen zentralen Datenspeicher zu übertragen. Die Übertragung dieser Daten kann kostspielig, schwierig und oft riskant aus Sicht der Sicherheit, des Datenschutzes oder der Wettbewerbsfähigkeit sein. Federated Learning ermöglicht es KI-Modelle verteilt direkt zum Beispiel auf IOT-Endgeräten zu trainieren und Daten an unterschiedlichen Standorten zu nutzen.  

Causal Inference 

Über Causal Inference können Ursache-Wirkungs-Beziehungen zwischen Attributen eines Datensatzes identifiziert werden und Zusammenhänge analysiert werden. Hierdurch können zum Beispiel falsche Geschäftsentscheidungen vermieden werden, die auf Scheinkorrelationen basieren. 

Zusammengefasst kann man AI 2.0 als den Versuch begreifen, über Vorstellung, Versuch und Irrtum, Erfahrungsaustausch und das Verstehen von Wirkweisen der natürlichen Intelligenz wieder ein Stück näher zu kommen. Wie in der Natur können die so entstehenden Vorteile einen entscheidenden Unterschied machen im Hinblick auf die Überlebensfähigkeit eines Unternehmens. 

Bereits zu Beginn einer AI-Transformation sollten sich die Verantwortlichen in einem Unternehmen mit den Möglichkeiten von AI 2.0 auseinandersetzen und die möglichen Einsatzgebiete evaluieren. So können frühzeitig mit Hilfe der neuen Technologien potentielle „Killer-Anwendungen“ für das eigene Geschäftsmodell implementiert werden. 

AI 2.0 in Europa 

Im Rahmen von AI 2.0 ist ein wichtiger Faktor, dass wir in Europa bei der Entwicklung und Anwendung von AI europäische Werte und Qualitätsmaßstäbe berücksichtigen. Ethische Fragestellungen müssen geklärt und über angemessene Regularien umgesetzt werden. Dabei dürfen die Innovationskraft und das wirtschaftliche Potential von AI nicht eingeschränkt werden. Regularien müssen mit Augenmaß definiert werden, mit dem Fokus auf spezifische Anwendungsszenarien, unter Berücksichtigung von bestehenden Maßnahmen und nach einer transparenten und präzisen Risikoeinschätzung. 

Denn nur durch einen Innovationsschub in Forschung und Anwendung von AI können wir in Europa auf Augenhöhe mit den großen Playern wie die USA und China kommen und unsere digitale Souveränität aufbauen. 

<a href="https://www.alexanderthamm.com/de/blog/author/alexander/" target="_self">ALEXANDER THAMM</a>

ALEXANDER THAMM

Alexander Thamm ist Founder, CEO und Pionier auf dem Gebiet der Daten & KI. Seine Mission ist es, einen echten Mehrwert aus Daten zu generieren und die internationale Wettbewerbsfähigkeit Deutschlands und Europas wiederherzustellen. Er ist Gründungsmitglied und Regionalmanager des KI-Bundesverbandes e.V., ein gefragter Speaker, Autor zahlreicher Publikationen und Mitbegründer des DATA Festivals, auf dem KI-Experten und Visionäre die datengetriebene Welt von morgen gestalten. Im Jahr 2012 gründete er die Alexander Thamm GmbH [at], welche zu den führenden Anbietern von Data Science & Künstlicher Intelligenz im deutschsprachigen Raum gehört.