Top 10 Challenges in KI-Projekten

von | 2. Mai 2022 | Grundlagen

Im Jahr 2022 feiern wir das 10-jährige Jubiläum von [at] – Alexander Thamm.

2012 waren wir die erste Beratung im deutschsprachigen Raum, die sich Data & AI auf die Fahne geschrieben hat. Heute lässt sich sagen, künstliche Intelligenz (KI) hat das Potential, einen wichtigen Beitrag bei einigen der großen wirtschaftlichen und gesellschaftlichen Herausforderungen unserer Zeit zu leisten. KI spielt eine Rolle bei der Energiewende und bei der Reaktion auf den Klimawandel, beim autonomen Fahren, bei der Erkennung und Behandlung von Krankheiten oder der Pandemiebekämpfung. KI steigert die Effizienz von Produktionsprozessen und erhöht die Anpassungsfähigkeit von Unternehmen auf Marktveränderungen durch Echtzeitinformationen sowie Vorhersagen.

Die wirtschaftliche Bedeutung der Technologie steigt rasant an. Mittlerweile nutzen mehr als zwei Drittel der deutschen Unternehmen künstliche Intelligenz und Machine Learning (ML).

Mit unseren #AITOP10 zeigen wir euch, was gerade im Bereich Data & AI angesagt ist. Unsere TOP10-Listen präsentieren Podcast-Highlights, industriespezifische KI-Trends, KI-Experten, Tool-Empfehlung und vieles mehr. Hier bekommt ihr einen breiten Querschnitt über das Data & AI-Universum, das uns seit nunmehr 10 Jahren antreibt.

Viel Spaß beim Lesen – und fühlt euch herzlich eingeladen, die Liste zu ergänzen!

Platz 10 – Das richtige Team  

Der Aufbau eines talentierten Data-Science-Teams kann aufgrund des Fachkräftemangels kostspielig und zeitaufwändig sein. Vor allem kleine und mittlere Unternehmen haben oft nicht die Möglichkeit, Data-Science- und Data-Engineering-Fachleute einzustellen, um den Einsatz von KI in Angriff zu nehmen. Ohne ein Team mit entsprechender Ausbildung und Fachwissen sollten Unternehmen nicht erwarten, dass sie mit KI viel erreichen können. Kosten und Vorteile des Aufbaus interner Data-Science-Teams müssen analysiert werden oder man muss an externe Dienstleister auslagern.

Platz 9 – Bias in KI

Eine KI kann immer nur so gut sein wie die Daten, mit denen sie trainiert wurde. Daher sind hochwertige und unvoreingenommene Daten besonders wichtig. Doch die Realität sieht anders aus: Daten, die Unternehmen tagtäglich sammeln sind oft verzerrt und haben allein keine Aussagekraft. Oft repräsentieren diese Daten nur einen Teil der gesamten Datengrundlage und sind beeinflusst von vorrausgegangenen User-Eingaben oder individuelle Herangehensweisen. Diese Herausforderung kann nur durch die Definition von Algorithmen bewältigt werden, die diese Probleme aufspüren und die Daten weniger „voreingenommen“ machen.

Platz 8 – Datenschutz und Sicherheitsbedenken

Der wichtigste Faktor, auf dem alle Modelle des Deep und Machine Learning beruhen, ist die Verfügbarkeit von Daten und Ressourcen, um diese Modelle zu trainieren. Wenn Daten von Millionen von Nutzern rund um den Globus generiert werden, besteht die Gefahr, dass diese Daten für unlautere Zwecke verwendet werden. Einige Unternehmen haben bereits damit begonnen, diese Hindernisse innovativ zu umgehen. So hat Google beispielsweise einen Ansatz für dieses Problem entwickelt, das sogenannte ‚federated learning‘: Es trainiert ein ML-Modell mit persönlichen Daten, beispielsweise von Telefonen, auf dem Gerät selbst, so dass die Daten nicht an die Server gesendet werden. Nur das trainierte Modell wird an das Unternehmen zurückgeschickt und so werden keine persönlichen Daten auf den Servern gespeichert.

Platz 7 – Fehlende Erklärbarkeit und Nachvollziehbarkeit von KI

In den meisten Fällen ist KI eine „Black Box“. Nicht einmal ein Data Scientist kann eindeutig erklären, warum die KI eine bestimmte Entscheidung getroffen hat. Deswegen ist ‚Explainable AI‘ ein breites Forschungsfeld mit dem Ziel, die Technologie für den Menschen transparenter zu machen – was eventuelle Vorbehalte und Bedenken gegenüber KI zukünftig reduzieren wird. Bislang kann die Entscheidungsgrundlage nur bis zu einem gewissen Grad hin erklärt werden. Bis aber volle Transparenz besteht, muss man sich damit abfinden, dass die KI Entscheidungen trifft, deren Lösungsweg für den Menschen nicht immer nachvollziehbar ist.

Platz 6 – Verfügbarkeit und Kosten großer Rechenkapazitäten

Der hohe Stromverbrauch leistungshungriger Algorithmen ist ein Schlüsselfaktor, der viele Entwickler:innen davon abhält, KI einzusetzen. Machine Learning und Deep Learning erfordern eine immer größere Anzahl von Rechenkernen und GPUs, um effizient zu arbeiten. Es gibt viele Bereiche, in denen Deep Learning eingesetzt werden kann, um wertvolle Erkenntnisse zu gewinnen, jedoch erfordern einige Algorithmen die Rechenleistung eines Supercomputers. Dank der Verfügbarkeit von Cloud Computing und Parallel Processing können Entwickler:innen zwar effektiver an KI-Anwendungen arbeiten – die benötigte Rechenleistung hat aber ihren Preis. Nicht jeder kann sich die Verarbeitung dieser riesigen Datenmengen und rapide komplexer werdender Algorithmen leisten.

Platz 5 – Nutzung von externen Daten

Die Einbeziehung externer Daten ist ein wichtiger Bestandteil von Data-Analytics-Prorammen, wenn Unternehmen nach strategischen Erkenntnissen außerhalb ihres Unternehmens suchen. Bei der Fülle an verfügbaren Daten ist es für Unternehmen schwer zu wissen, welche Art von externen Daten sie suchen und wo sie diese finden können. Datenmarktplätze bieten eine Plattform für den Kauf von Daten, helfen den Käufern jedoch in der Regel nicht dabei, zu verstehen, welche Art von Daten für ihren Use Case oder die Problemstellung benötigt wird. So kann es schwer sein, eine gute Datenqualität sicherzustellen und zu verstehen, welche Auswirkungen Datensätze auf Vorhersagemodelle haben, bevor man diese kauft.

Platz 4 – Fehlende Erfolgsgarantie

Eine weitere Herausforderung bei der Implementierung und Integration von KI: die fehlende Erfolgsgarantie. Die Einführung von KI und die Umsetzung von ML-Projekten in einem Unternehmen ist immer mit einem hohen Aufwand verbunden. Um ein KI-Projekt zu initiieren, müssen die verfügbaren Daten ausgewertet und experimentiert werden. Anschließend werden die Erfolgsaussichten des ML-Modells im Hinblick auf das angestrebte Ziel geprüft. In einigen Fällen kann das gewünschte Ergebnis des Use Cases mit den verfügbaren Daten nicht erreicht werden und es müssen weitere Strategien zur Lösung dieses Problems geprüft werden.

Platz 3 – Die Daten müssen Muster enthalten

Und wenn die Daten nicht zusammenpassen? Ein gängiges Problem in der Praxis ist, dass die Daten kein bestimmtes Muster enthalten. In manchen Fällen ändern sich Daten zufällig und können daher nicht gewinnbringend vorhergesagt oder analysiert werden. Dann führt die Verwendung eines ML-Modells mit diesen Daten nicht zur gewünschten Genauigkeit. Hier können in manchen Fällen die Datenquellen weiter ausgewertet werden und eventuell weiterverarbeitet, bereinigt oder ausgetauscht werden. Ansonsten muss die Problemstellung des Use Cases hinterfragt und weiter spezifiziert werden.

Platz 2 – Je mehr Daten, desto besser

Daten spielen die Hauptrolle beim Training von ML-Modellen. Daher ist es immer hilfreich, eher zu viele als zu wenige Daten zu haben. Weil ML-Modelle große Mengen an Datensätzen benötigen, um aussagekräftige Vorhersagen zu treffen, kann ein zu kleiner Datensatz das ML-Modell ungenau oder sogar unbrauchbar machen. Nur wenn die Trainings-Datensätze alle möglichen Konstellationen und Anomalien abbilden, können diese auch später in der Anwendung erkannt werden.

Platz 1 – Ein einheitliches Verständnis von KI

Für KI gibt es nicht die eine, allgemeingültige Definition – jede:r verbindet andere Vorstellungen mit dem Begriff. Genau dieser Umstand kann zu einer echten Challenge im Projekt werden. Für alle Projektbeteiligten sollte daher im Vorhinein eine Aufklärung stattfinden. Es muss genau besprochen werden, wozu genau die Künstliche Intelligenz fähig ist und wozu nicht. Mythen und Missverständnisse müssen ausgeräumt werden. Dabei müssen auch eventuelle Sorgen und Bedenken der Mitarbeiter:innen –  beispielsweise die Angst vor Jobverlust oder auch davor, dass es durch Vorhersagen der KI zu kritischen Situationen kommt – ernst genommen werden. Nur so ist es möglich, ein einheitliches Verständnis zu schaffen, damit alle Beteiligten an Bord sind und an einem Strang ziehen.

Dies sind unsere Top 10 Challenges, die wir bei der Implementierung von KI in über 1300 Anwendungsfällen erlebt haben.

Hier geht es zu unserer Use Cases Datenbank.

Welche Herausforderungen habt ihr bei der Implementierung von KI schon erlebt?

Autor:innen

Lukas Lux

Lukas Lux ist Werkstudent im Bereich Customer & Strategy bei der Alexander Thamm GmbH. Neben seinem Studium des Sales Engineering & Product Management mit dem Schwerpunkt IT-Engineering beschäftigt er sich mit den aktuellsten Trends und Technologien im Bereich Data & AI und stellt diese in Zusammenarbeit mit unseren [at]Experten für euch zusammen.

0 Kommentare

Das könnte Sie auch interessieren