Dass Künstliche Intelligenz (KI) enorme Potenziale für nahezu alle Branchen und Anwendungsbereiche verheißt, haben mittlerweile die meisten Unternehmen erkannt. Wenn es jedoch um die Planung und Umsetzung von KI-Projekten geht, sehen sich die Verantwortlichen oft noch mit zahlreichen Herausforderungen konfrontiert.
Wir stellen die sieben häufigsten Stolperstricke bei KI-Projekten vor, die es zu adressieren gilt, damit das Vorhaben zum Erfolg für alle Beteiligten werden kann.
Inhaltsverzeichnis
1. Ein einheitliches Verständnis von KI
Für KI gibt es nicht die eine, allgemeingültige Definition – jeder verbindet andere Vorstellungen mit dem Begriff. Genau dieser Umstand kann zu einem Stolperstein im Projekt werden. Für alle Projektbeteiligten, auch aus den Fachbereichen, sollte im Vorhinein eine Aufklärung stattfinden. Es muss genau besprochen werden, wozu genau die Künstliche Intelligenz fähig ist und wozu nicht. Mythen und Missverständnisse müssen ausgeräumt werden. Dabei sollten auch eventuelle Sorgen und Bedenken der Mitarbeiter, wie zum Beispiel die Angst vor einem Jobverlust oder auch davor, dass es durch Vorhersagen der KI zu kritischen Situationen kommt, ernst genommen werden. Nur so ist es möglich, ein einheitliches Verständnis zu schaffen, damit alle an Board sind und an einem Strang ziehen.
2. Die Datengrundlage: Quantität und Qualität
Daten sind der Schatz eines Unternehmens und die Basis für jedes KI-Projekt. Um Modelle zu trainieren, werden sehr große Datenmengen benötigt – und diese sind nicht in jeder Firma ausreichend vorhanden. Eine weitere Herausforderung neben der Quantität ist die Qualität der Daten. Diese müssen inhaltlich alle möglichen Konstellationen abdecken, damit das Modell später für den tatsächlichen Use Case gerüstet ist. Nur, wenn sich in den Datensätzen auch Anomalien finden, können diese im Training berücksichtigt und in der Anwendung aufgedeckt werden. Sind die Datensätze außerdem in irgendeiner Weise unausgeglichen, führt das zu einem unerwünschten Bias – die KI trifft dann Entscheidungen, die möglicherweise nicht optimal sind.
3. Zu hohe Erwartungen
Jedem Projekt geht eine Kosten-Nutzen-Betrachtung voraus – und gerade, wenn es um vergleichsweise neue und komplexe Technologien wie KI geht, besteht bei Entscheidungsträger eine gewisse Skepsis. Der Mehrwert eines solchen Projekts muss direkt erkennbar sein. In KI-Projekten gibt es aber keine Garantie auf Erfolg. Ob sich ein neuronales Netz erfolgreich trainieren lässt, hängt von vielen Faktoren ab, vor allem aber von den Daten. Schon die Exploration dieser und das Trainieren der Netze erfordert Aufwand und Kosten, auch wenn der Prozess nicht erfolgreich ist. Somit geht jeder Anwender ein gewisses finanzielles Risiko ein. Die Erwartungen sollten dementsprechend nicht zu hoch sein – denn es besteht die Möglichkeit, dass das Projekt misslingt.
4. Die Interpretation der Ergebnisse
So verbreitet Szenarien von einer Maschine sind, die die Weltherrschaft übernimmt, so unwahrscheinlich ist es in absehbarer Zukunft, dass Entscheidungen allein von einer KI getroffen werden. Stattdessen gibt die Technologie Entscheidungsträgern eine Datengrundlage an die Hand, anhand derer die Verantwortlichen optimal informiert entscheiden können. Dazu müssen aber die Ergebnisse der KI richtig interpretiert werden. Diese sind selten schwarz/weiß, sondern immer mit einer gewissen Genauigkeit der Vorhersage zu sehen. Diese Genauigkeit muss in Verhältnis gesetzt werden zu der Vorhersage von Analysen durch Menschen. Denn auch Menschen machen Fehler, zum Beispiel bei der Diagnose von Krankheiten auf Basis von Röntgenbildern. Daher gilt es, die Vorhersagequalität der KI mit der des Menschen zu vergleichen.
5. KI ist oft nicht erklärbar
In den meisten Fällen ist KI eine Black Box. Nicht einmal ein Data Scientist kann eindeutig erklären, warum die KI eine bestimmte Entscheidung getroffen hat. Deswegen ist „Explainable AI“ ein breites Forschungsfeld mit dem Ziel, die Technologie für den Menschen transparenter zu machen – was eventuelle Vorbehalte und Bedenken gegenüber KI zukünftig reduzieren wird. Bislang kann die Entscheidungsgrundlage zumindest zu einem gewissen Grad erklärt werden. Bis aber volle Transparenz besteht, muss man sich damit abfinden, dass die KI Entscheidungen trifft, deren Lösungsweg möglicherweise nicht nachvollziehbar ist.
6. Skepsis
Wie bei allen neuen Technologien ist auch KI mit einer gewissen Skepsis behaftet. Neben den bereits genannten Faktoren schrecken oft auch der erforderliche Aufwand zum Sammeln und Labeln der Trainingsdaten die Verantwortlichen von der Einführung und Nutzung ab – auch, wenn der Einsatz von KI auf lange Sicht eine Steigerung der Effektivität bestimmter Prozesse bedeutet. Dadurch werden Potenziale in Unternehmen nicht ausgeschöpft und die Firmen riskieren, ihre Wettbewerbsfähigkeit einzubüßen. In unserem Grundlagenartikel zu AI 2.0. erklären wir, warum auch non-tech Unternehmen sich nun intensiv mit KI und den eigenen Use Cases beschäftigen sollten, damit Deutschland nicht als KI-Standort zurückbleibt.
7. Besitzverhältnisse
Bevor ein KI-Projekt startet, sollte in jedem Fall die Frage geklärt sein, wem das trainierte neuronale Netz und somit das geistige Eigentum gehört. Die Daten sind in jedem Fall Eigentum des Erzeugers, also des jeweiligen Fachbereichs, oft aber möchte der Dienstleister die Erkenntnisse aus dem Projekt anderweitig nutzen. Bei der Nutzung von KI-Funktionalitäten der großen Anbieter über Services oder APIs (wie zum Beispiel Amazons Alexa) müssen die Kunden oft der Nutzung der Daten zur Verbesserung der Dienste zustimmen. Dieser Aspekt sollte also explizit vertraglich geregelt werden, um spätere Unstimmigkeiten zu vermeiden.
0 Kommentare