Sichere KI durch robuste Daten und Red Teaming

Künstliche Intelligenz steht zunehmend im Fokus gezielter Angriffe. Längst sind nicht mehr nur IT-Infrastrukturen das Ziel böswilliger Akteure, sondern zunehmend auch die Modelle selbst sowie die Daten, auf denen KI-Systeme trainiert werden.
Eine besonders gefährliche Form der digitalen Manipulation ist das sogenannte Data Poisoning, oder auch die Datenvergiftung. Dabei werden Trainingsdaten gezielt manipuliert, um das Verhalten von KI-Systemen systematisch zu beeinflussen. Die Folgen sind fehlerhafte Entscheidungen oder Halluzinationen mit potenziell gravierenden Folgen für Unternehmen, Nutzer und die öffentliche Sicherheit.
KI-Modelle basieren auf datengetriebenem Lernen. In der Trainingsphase analysieren sie große Datenmengen, um Muster, Zusammenhänge und Wahrscheinlichkeitsverteilungen zu erkennen. Genau hier setzen Angreifer an: Durch das Einschleusen gezielt manipulierter oder irreführender Daten können sie Einfluss auf das KI-System nehmen. Im Gegensatz zu klassischen Hacks sind solche Angriffe schwer zu erkennen. Oft bleibt die Manipulation so lange unbemerkt, bis das System im produktiven Einsatz unerklärliche oder gar gefährliche Entscheidungen oder Aussagen triff.
Die gefährlichsten Angriffe lassen sich in zwei Hauptkategorien unterteilen: Manipulation bei der Erstellung von Trainingsdaten sowie gezielte Vergiftung über externe Datenquellen im laufenden Betrieb. Besonders anfällig sind Systeme, die ständig aus neuen Daten lernen – etwa im Kundenservice, bei der Kreditvergabe oder bei automatisierten Entscheidungsprozessen im Gesundheitswesen. Eine zentrale Herausforderung beim Einsatz von KI-Systemen liegt dabei in ihrer mangelnden Transparenz. Ihre Entscheidungsprozesse sind für Außenstehende nur schwer nachvollziehbar. Das erschwert nicht nur die Validierung von Ergebnissen, sondern auch die frühzeitige Erkennung gezielter Manipulationen.
Die Bedrohung durch Datenvergiftung betrifft nahezu alle Branchen. Besonders im Fokus stehen jedoch Branchen, in denen KI in sicherheitsrelevanten oder geschäftskritischen Entscheidungen involviert ist. Dazu gehören:
Algorithmen zu Betrugserkennung können durch manipulierte Daten gezielt geschwächt werden. Eine Datenvergiftung kann dazu führen, dass betrügerische Transaktionen als unauffällig eingestuft und nicht erkannt werden.
Durch vergiftete Daten manipulierte KI-Systeme könnten immer bestimmte Therapien oder Medikamente von spezifischen Anbietern empfehlen.
Manipulierte Trainingsdaten können dazu führen, dass feindliche Ziele nicht erkannt oder zivile Objekte fälschlich als Bedrohung eingestuft werden. Das schwächt die Einsatzfähigkeit sicherheitskritischer Systeme und gefährdet im Ernstfall Menschenleben.
Um sich gegen solche Angriffe zu wappnen, reicht das klassische IT-Sicherheitsmanagement nicht mehr aus. KI erfordert eigene Sicherheitsstrategien und neue Denkweisen. Zwei Ansätze sind besonders vielversprechend:
Unternehmen müssen genau wissen, woher ihre Trainingsdaten stammen, wie sie erhoben wurden und ob sie vertrauenswürdig sind. Dazu gehören die Validierung durch mehrere Datenquellen, die Verwendung synthetischer Testdaten und der gezielte Ausschluss manipulierbarer Eingaben.
Hier übernehmen sogenannte Red Teams die Perspektive potenzieller Angreifer, um gezielt Schwachstellen in den Trainingsdaten, in der Modellarchitektur oder in den Schnittstellen zur Anwendung aufzudecken. Diese Tests müssen realistisch, kreativ und kontinuierlich sein, denn auch Angreifer und Bedrohungsszenarien entwickeln sich weiter. Red Teaming trägt dazu bei, organisatorische und regulatorische Sicherheitsziele zu überprüfen und zu konsolidieren.
Der EU AI Act fordert neben Transparenz- und Dokumentationspflichten auch Risikobewertungen und Mechanismen zur Fehlervermeidung gefordert. Unternehmen, die KI einsetzen, müssen daher künftig nachweisen, dass ihre Systeme sicher, fair, und nachvollziehbar funktionieren. Dies gilt insbesondere für sogenannte Hochrisikosysteme.
Ein zentraler Aspekt dabei ist der Schutz vor gezielten Manipulationen wie das Data Poisoning. Um diesen Risiken zu begegnen, gewinnen proaktive Prüfverfahren wie Red Teaming an Bedeutung: Sie helfen, verwundbare Stellen in Daten, Modellen und Schnittstellen frühzeitig zu identifizieren. Auch ethische Anforderungen sind damit verbunden. Denn fehlerhafte oder manipulierte KI-Entscheidungen können Menschen schaden, Diskriminierung verstärken oder das Vertrauen in digitale Systeme zerstören. Unternehmen müssen daher nicht nur technische, sondern auch moralische Verantwortung übernehmen: durch Fairness-Checks, Algorithmen, Transparenz und einen bewussten Umgang mit Daten.
Eine der größten Sicherheitsbedrohungen für KI-Systeme ist das Data Poisoning. Um sich zu schützen, müssen Unternehmen neue Sicherheitsstrategien entwickeln, Angriffsvektoren verstehen und ihre Modelle kontinuierlich testen.
Red Teaming, solides Datenmanagement und die Einhaltung regulatorischer Standards sind keine Übungen für den Ernstfall, sondern die Grundlage für eine sichere, vertrauenswürdige und verantwortungsvolle Nutzung von KI.
Wir haben in der Vergangenheit bereits viele Unternehmen dabei unterstützt, ihre KI-Sicherheit durch gezieltes Red Teaming und ein robustes Datenmanagement nachhaltig zu stärken. Sie wollen Ihre KI-Systeme schützen? Kontaktieren Sie uns für eine kostenlose Erstberatung.
Dr. Till Plumbaum
Till ist Senior Principal Data Strategist und Team Lead bei der Alexander Thamm [at], wo er die Generative-AI-Initiative vorantreibt und Unternehmen aus der Finanz- und Versicherungsbranche bei der digitalen Transformation berät.
Nach seiner Promotion an der TU Berlin zu adaptiven Systemen leitete er am Lehrstuhl für Agentenbasierte Technologien der TU Berlin die Forschungsgruppe Information Retrieval & Machine Learning und war unter anderem als COO und als Head of AI für NLP- und Generative-AI-Projekte zuständig. Till verfügt über 15 Jahre Erfahrung in der Beratung und Implementierung von KI-Anwendungen in verschiedenen Positionen und Führungsrollen.
Cookie Freigabe
Diese Website verwendet notwendige Cookies zur Sicherstellung des Betriebs der Website. Eine Analyse des Nutzerverhaltens durch Dritte findet nicht statt. Detaillierte Informationen über den Einsatz von Cookies finden Sie in unseren Datenschutzerklärung.
Individuelle Cookie Einstellungen
Datenschutzeinstellungen
Hier finden Sie eine Übersicht über alle verwendeten Cookies. Sie können Ihre Zustimmung zu ganzen Kategorien geben oder sich weitere Informationen anzeigen lassen und so nur bestimmte Cookies auswählen.
Notwendige Cookies
Diese Cookies ermöglichen grundlegende Funktionen und sind für die einwandfreie Funktion der Website erforderlich.
Cookie Informationen anzeigen
Cookie Informationen verbergen
Hubspot CMS
HubSpot CMS ist ein Content-Management-System, das verschiedene Cookies zur Verfolgung von Besucherinteraktionen verwendet.
| Anbieter: | HubSpot, Inc., 25 First Street, Cambridge, MA 02141, USA |
| Cookiename: | __hstc; hubspotutk; __hssc; __hssrc; __cf_bm; __cfruid |
| Laufzeit: | 6 Monate; 6 Monate; 30 Minuten; Sitzungsende; 30 Minuten; Sitzungsende |
| Datenschutzlink: | https://legal.hubspot.com/de/privacy-policy |
| Host: | .hubspot.com |
Matomo Analytics
Matomo ist eine Open-Source-Webanalyselösung, die Datenschutz und Datenhoheit betont und statistische Nutzer-Informationen festhält.
| Anbieter: | InnoCraft Ltd., 150 Willis St, 6011 Wellington, New Zealand |
| Cookiename: | _pk_id..; _pk_ses.. |
| Laufzeit: | 13 Monate; 30 Minuten |
| Datenschutzlink: | https://matomo.org/gdpr-analytics/ |
| Host: | .matomo.cloud |
Cookies für Externe Inhalte
Inhalte von Videoplattformen und Social Media Plattformen werden standardmäßig blockiert. Wenn Cookies von externen Medien akzeptiert werden, bedarf der Zugriff auf diese Inhalte keiner manuellen Zustimmung mehr.
Cookie Informationen anzeigen
Cookie Informationen verbergen
YouTube
YouTube setzt verschiedene Cookies zur Verwaltung von Benutzereinstellungen und zur Verfolgung von Nutzerinteraktionen. Und wird verwendet, um YouTube-Inhalte freizuschalten.
| Anbieter: | Google Ireland Limited, Gordon House, Barrow Street, Dublin 4, Ireland |
| Cookiename: | YSC; VISITOR_INFO1_LIVE; PREF |
| Laufzeit: | Sitzungsende; 6 Monate; 8 Monate |
| Datenschutzlink: | https://policies.google.com/privacy?hl=de |
| Host: | .youtube.com |
Podigee
Podigee ist ein Podcast-Hosting-Dienst, der Cookies für die Freischaltung von Inhalten gesetzt.
| Anbieter: | Podigee GmbH, Revaler Straße 28, 10245 Berlin, Deutschland |
| Cookiename: | Nicht spezifiziert |
| Laufzeit: | Nicht spezifiziert |
| Datenschutzlink: | https://www.podigee.com/de/ueber-uns/datenschutz/ |
| Host: | .podigee.com |
Google Maps
Dient zum Entsperren von Google Maps-Inhalten. Google Maps verwendet Cookies, um Benutzerpräferenzen zu speichern und die Nutzung zu erleichtern.
| Anbieter: | Google Ireland Limited, Gordon House, Barrow Street, Dublin 4, Irland |
| Cookiename: | SID; HSID; NID |
| Laufzeit: | 2 Jahre; 2 Jahre; 6 Monate |
| Datenschutzlink: | https://policies.google.com/privacy?hl=de |
| Host: | .google.com |
Ihre Cookie-Einstellungen erlauben keine externen Inhalte von Google Maps.