Erfolgreiche Data Science Projekte mit dem Datenkompass

von | 17. April 2020 | Künstliche Intelligenz

Die Einsatzbereiche für Data Science Projekte sind schier unerschöpflich und so reichhaltig wie die Branchen, wo sie Anwendung finden. Datenanalysen bringen wertvolle Einsichten für Forschung und Wissenschaft, Produktentwicklung, Vertrieb und Logistik, Produktion, Human Resources, das Management, im Bereich Banking sowie vielen weiteren Unternehmensbereichen und Einzelbranchen. Eine der wiederkehrenden Konstanten solcher Projekte ist es, Muster und Regelmäßigkeiten in Daten zu erkennen sowie Modelle zu entwickeln, die Vorhersagen erlauben und Grundlage für Entscheidungen bilden.

Der Datenkompass

Um all diese verschiedenen Aspekte zu gliedern und zu strukturieren, haben wir von der Alexander Thamm GmbH den Datenkompass entwickelt. Er dient der Orientierung und der zielgerichteten Entwicklung von Data Science Projekten. Der Datenkompass ist unabhängig von bestimmten Technologien oder Software-Anbietern und kann individuell an die bestehenden IT-Lösungen unserer Kunden angepasst werden. Der Datenkompass teilt dazu jedes Data Science Projekt in vier aufeinander aufbauende Stufen ein: Business Processes, Data Intelligence, Predictive Analytics und Insights Visualization. Der Datenkompass stellt die Summe unserer langjährigen Erfahrung und über 500 erfolgreich durchgeführte Data-Science-Projekten in verschiedenen Branchen dar.

In den letzten 4 Jahren haben wir bereits über 1.000 Data Science Projekte für Kunden aus unterschiedlichsten Branchen durchgeführt. Werfen Sie einen Blick auf unsere Use Cases.

Business Processes

Unser Ansatz setzt an einem Punkt an, an dem Daten zunächst noch gar keine Rolle spielen. Denn unsere Kunden kommen in der Regel mit mehr oder weniger spezifischen, konkreten Fragen oder einem Problem auf uns zu, für das Sie eine Lösung suchen. Gemeinsam kümmern wir uns darum, zunächst diese Frage umfassend zu verstehen. Dazu klären und bewerten wir alle mit der Frage verknüpften Hintergründe, Motivationen und Interessen. Je genauer wir eine Fragestellung präzisieren, desto besser lässt sie sich mithilfe von passenden Daten beantworten. Für den Erfolg halten wir es für entscheidend, von Anfang an alle beteiligten Personen mit am Tisch zu haben. Je früher alle betroffenen Abteilungen und Entscheidungsträger mit in den Prozess einbezogen werden, desto leichter und effektiver gestaltet sich die Umsetzung.

Sobald die konkrete Fragestellung vorliegt, geht es an die Planung und Klärung der Rahmenbedingungen eines Projekts. Dazu gehen wir anhand der Analyse der Business Processes der Frage nach, welche technischen und analytischen Herausforderungen es auf dem Weg zu Lösung zu meistern gilt. Das Verständnis des Zusammenspiels von Geschäftsprozessen und Analysekonzept bilden das Fundament eines jeden Data Science Projekts.

Data Intelligence

Die betriebswirtschaftliche oder fachlich orientierte Fragestellung übersetzen wir in der anschließenden Phase in eine datengetriebene Fragestellung. Hier geht es um die genaue Bestimmung, welche Zahlen, Messwerte und Daten für ein Data Science Projekt relevant sind. Dabei kann es sein, dass die Daten bereits vorhanden sind oder zunächst Konzepte für die Datenerhebung entwickelt werden müssen.

Die eigentliche Herausforderung ist es, sehr unterschiedliche Daten miteinander vergleichbar zu machen. Umgangssprachlich könnte man sagen, dass Daten „eine einheitliche Sprache sprechen müssen“. Dieser Aspekt eines Data Science Projekts kann zeitlich enorm intensiv sein und nicht selten handelt es sich dabei um manuelle Prozesse. Darum ist Data Intelligence einer der entscheidenden Vorgänge, ohne die keine verlässlichen Aussagen möglich sind. Data Science benötigt eine optimale Datenqualität, sprich: relevante, strukturierte und valide Daten.

Sie haben bereits eine Big-Data-Strategie, wissen aber nicht, wie sie diese am besten umsetzen können? In unserem Roadmap Workshop klären wir diese Fragen gemeinsam!

Predictive Analytics

Unternehmen sehen sich heute in vielen Fällen mit enormen Datenmengen konfrontiert. Um diese Big Data auszuwerten, werden spezielle Algorithmen verwendet oder selbst entwickelt, die in der Lage sind, in großen Datenmengen Muster und Regelmäßigkeiten zu erkennen. Die Analyse von historischen Daten kann beispielsweise dazu dienen, Vorhersagemodelle zu entwickeln. Dabei werden Wahrscheinlichkeiten berechnet, nach denen ein bestimmtes Ereignis oder ein Szenario eintritt. So lassen sich frühzeitig Trends erkennen und darauf reagieren. Mithilfe von Predictive Analytics können wir entweder konkrete Fragestellungen und Hypothesen bewerten oder wir suchen nach der nächsten (sinnvollen) Frage, auf die versteckte Muster und Regelmäßigkeiten in den Daten hinweisen.

Insights Visualization

Für das menschliche Gehirn sind Daten in Form von Bildern viel schneller und besser zu verarbeiten als endlose Zahlenreihen in Tabellenform. Die Insights Visualization, die Datenvisualisierung, ist deshalb nicht nur für Präsentationen wichtig, sondern vor allem um die Informationen zu verstehen und interpretieren zu können. Die Visualisierung wird damit zum wesentlichen Bestandteil einer jeden Analyse. Insbesondere weil sich Data Science nicht ausschließlich an IT-Experten richtet, sondern ebenfalls im Management und der Geschäftsführung ihr Anwendungsfeld findet, müssen die Ergebnisse klar und verständlich präsentiert werden. Usability und Information Design sind der Schlüssel, damit Data Science ein Bestandteil der alltäglichen unternehmerischen Praxis werden kann.

Anforderungsmanagement in Data Science Projekten

Anforderungen in Data-Science-Projekten und deren genaue Analyse sind für das Gelingen von datengetriebenen Projekten von zentraler Bedeutung. Diese sollten vollständig und widerspruchsfrei sein. Der Umgang mit Anforderungen ist ein wesentlicher Erfolgsfaktor in Projekten. Dieser Text präsentiert Strategien, mit denen sich Anforderungen in Data-Science-Projekten mit Visualisierungsanteil optimal ermitteln lassen.

Die Stakeholder

Die Stakeholder sind ein wichtiger Faktor, der die Agilität des Projektes beeinflusst und den Projekterfolg damit mitbestimmt. Es kann mitunter anspruchsvoll sein, alle Anforderungen beziehungsweise Wünsche der Stakeholder zu implementieren auf diese einzugehen.

Das ist besonders dann der Fall, wenn viele Stakeholder in einem Projekt beteiligt sind und diese dabei unterschiedliche, eventuell sogar kontroverse Vorstellungen vom Endergebnis haben. Die verschiedenen Strategien, die es dabei gibt, sollen im Folgenden anhand eines Visualisierungsprojektes durchgespielt werden.

Der Projektleiter

Auf Basis unserer langjährigen Erfahrung aus über 600 Data-Science-Projekten mit Visualisierungsanteil haben sich verschiedene Herausforderungen herausgestellt und wir haben entsprechende Vorgehensweisen bzw. Strategien etabliert, um diesen zu begegnen.

Für solche Entscheidungsprozesse bezüglich der Vorgehensweise haben wir einen Entscheidungsbaum entwickelt, der dabei hilft, die Tasks schnell zu strukturieren und zu steuern. Dieser beginnt mit der ersten Frage bezüglich bereits existierender Dashboards, Reportings oder anderen Visualisierungen, die als Orientierung zur Verfügung gestellt werden können.

Data-Science-Projekte Entscheidungsbaum
Entscheidungsbaum bei der Projekt Implementierung mit dem Schwerpunkt auf der Visualisierung.

4 Strategien für Data Science Projekte

1. Vor-Nachher-Strategie

Situation: Wenn ein Kunde bereits über eine Visualisierung verfügt – beispielsweise in Form eines Reportings, als PowerPoint oder als Applikation mit den Dashboards in verschiedenen Technologien wie QlikSense, Qlikview, Tableau, Power BI o.ä. integriert sind – muss zunächst geklärt werden, ob diese optimiert oder erweitert werden soll. Empfehlung: Bei der Optimierung hat sich bei uns folgende Vorgehensweise etabliert: Wir schaffen zunächst ein fachliches Verständnis für Visualisierungen in einem Workshop. Dabei klären wir Zweck und Ziele sowie alle Bestandteile der Diagramme – unter anderem die Bedeutungen der KPIs, Dimensionen und die genaue Fragestellung, die mit der Visualisierung beantwortet werden sollte. Auf Basis dieser Informationen werden die Grafiken methodisch nach etablierte Visualisierungsstandards erarbeitet.

Ergebnispräsentation: Zum Schluss stellen wir den Kunden die Ergebnisse vor, indem wir die vorherige Variante mit der neuen Variante vergleichen. Wir gehen auf die implementierten Verbesserungen ein und präsentieren unseren Vorschlag.

Anforderungen in Data-Science-Projekten Success Story 1
Anforderungen in Data-Science-Projekten Success Story 1

2. Opt-In-/Opt-Out-Strategie

Situation: Anders sieht es aus, wenn bereits eine Visualisierung existiert und diese erweitert werden soll. In diesem Fall empfehlen wir die Opt-In-/Opt-Out-Strategie. In erster Linie sammeln wir die User Storys. Diese spiegeln den Workflow der User wider und geben einen guten Überblick über die wirklichen Kundenbedürfnisse als Basis für die Anforderungen in Data-Science-Projekten.

Empfehlung: Basierend auf den gesammelten Informationen werden die User Storys in Visualisierungen umgewandelt. Zu jeder Visualisierung wird zusätzlich eine Alternative zur Auswahl entwickelt.

Ergebnispräsentation: In einem Zwischenergebnis-Workshop stellen wir den Kunden die entwickelten Grafiken mit Alternativen vor. Wir kommentieren die Vor- und Nachteile jeder Variante und geben unsere Empfehlung ab.

Anforderungen in Data-Science-Projekten Success Story 2
Anforderungen in Data-Science-Projekten Success Story 2

3. „Influencer“-Strategie

Situation: Es gibt Fälle, in denen unsere Kunden bei null beginnen und keine Visualisierungsgrundlage haben. Die Anzahl der Meinungsgeber ist dann groß, sodass es nicht leicht ist, auf die Wünsche und die Designvorstellung aller Beteiligten einzugehen.

Empfehlung: Eine mögliche Lösung dafür besteht darin, einen Stakeholder zu finden, dessen Einfluss auf das Projekt entscheidend ist. In den Zwischenabstimmungen sollten sich die visuellen Entwicklungen dann nach dessen Vorstellungen richten. Diese Vorgehensweise ist bei uns als „Influencer“-Strategie bekannt.

Ergebnispräsentation: Die Ergebnisse werden dem kompletten Stakeholder-Kreis vorgestellt und hinsichtlich der gewonnenen Vorteile und Neuerungen besprochen.

Anforderungen in Data-Science-Projekten Success Story 3
Anforderungen in Data-Science-Projekten Success Story 3

4. „Berater“-Strategie

Situation: Es gibt Fälle, in denen es nicht möglich ist, einen Influencer zu finden und dennoch mehrere Stakeholder in einem Projekt zu bedienen sind. Die exakte Definition der Anforderungen in Data-Science-Projekten kann in diesen Situationen viel kostbare Projektzeit kosten. Die Folgen sind ständige Überarbeitung und ressourcen-intensive Prozesse.

Empfehlung: Für diesen Fall ist unsere Empfehlung, die „Berater“-Strategie zu verfolgen. Dabei werden alle Anforderungen in Data-Science-Projekten mit den dazugehörigen Akzeptanzkriterien gesammelt und gemeinsam priorisiert. Die Implementierung wird von den Visualisierungs-Experten durchgeführt und bei einer Zwischenabstimmung das Feedback aufgenommen.

Ergebnispräsentation: Wir präsentieren die finale Version der Visualisierungen und kommentieren die zur Erstellung der Visualisierung eingesetzte Methodik.

Anforderungen in Data-Science-Projekten Success Story 4
Anforderungen in Data-Science-Projekten Success Story 4

5. Backlog-Bearbeitung

Situation: Die letzte und die einfachste Vorgehensweise ist die Backlog-Bearbeitung. Wenn alle Anforderungen in Data-Science-Projekten klar definiert sind, gibt es keine Diskussionen mehr dazu. Somit wird automatisch ein Backlog (unerledigte Aufgaben im Projekt) definiert und mit den Kunden abgestimmt.

Empfehlung: Die bestehenden Tasks sukzessiv in den Sprints abarbeiten.

Ergebnispräsentation: In der finalen Präsentation wird auf die Anforderungen im Data-Science-Projekt zurückgegriffen und deren Umsetzung aufgezeigt. Dies kann dynamisch in einer Software passieren oder statisch in einer PowerPoint geschehen.

Anforderungen in Data-Science-Projekten Success Story 5
Anforderungen in Data-Science-Projekten Success Story 5

Fazit

Jedes Data Science Projekt ist einzigartig. Der Weg zur individuellen Lösung weist jedoch strukturelle Ähnlichkeiten und wiederkehrende Fragestellungen auf. Der Datenkompass ist die Antwort auf diese Gemeinsamkeiten und er hilft dabei, Prozesse zu beschleunigen, zu beurteilen und zu optimieren. Wie ein echter Kompass beim Navigieren hilft und es möglich macht, sich über den eigenen Standpunkt klarzuwerden, so verschafft auch der Datenkompass Orientierung. Data Science Projekte sind hochkomplex und umso wichtiger ist es, den Überblick nicht zu verlieren. Mit dem von uns entwickelten Datenkompass verlieren wir nie das Ziel aus den Augen – Denn wir wissen: Nur wer die richtige Orientierung hat, kann auch neue Wege beschreiten.

Unserer Erfahrung nach bieten diese Strategien zur Definition und Umsetzung der Anforderungen in Data-Science-Projekten einen umfassenden Schutz, um den Projekterfolg sicherzustellen. Dabei blicken wir auf zahlreiche Use Cases und entsprechend viele Erfahrungen zurück, aus denen wir lernen konnten.

Insbesondere die Szenarien, bei denen viele Stakeholder eine Rolle spielen, zählen nicht nur zu den häufigsten Fällen, sondern auch zu den anspruchsvollsten. Wer hier mit einer Strategie für die Anforderungen in das Data-Science-Projekt geht, hat schon vor Beginn sehr viel gewonnen.

Der Autor

Michaela Tiedemann

Michaela Tiedemann

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Weitere Inhalte

Use Cases

Entdecken Sie unsere Use Cases aus unseren Kundenprojekten.

Webinare

Tauchen Sie ein in unsere Best Practices und Industry Exchanges. Entdecken Sie neue Termine und Aufzeichnungen vergangener Webinare.

Whitepaper

Mit unseren Whitepapern, Case Studies und Studien erfahren Sie mehr über den Einsatz von Data & AI in Ihrer Branche.