Data Journey
AI & Data Science einfach gemacht. Entlang der [at] Data Journey gelangen Sie von der Data Strategy zum fertigen Data Product.
Data Strategy
Die Data Journey beginnt mit der Entwicklung Ihrer Data Strategy. Diese ist die Grundlage, um aus Daten echten Mehrwert und Nutzen für Ihr Unternehmen zu generieren. Hierzu führen wir als erstes ein Assessment durch. Gemeinsam bewerten wir Ihren Status Quo, führen eine Standortbestimmung durch und machen ein Benchmarking Ihrer aktuellen Big Data und Analytics Fähigkeiten. Darauf aufbauend entwickeln wir Ihr individuelles Data Operating Model, das auf 5 Säulen beruht: Organisationsstruktur, Prozesse, Rollen, Data Governance und Systemlandschaft. Anschließend erarbeiten wir eine Roadmap für Ihre Data Science Use Cases. Hierfür generieren wir eine umfangreiche Use Case Liste, priorisieren diese und befüllen damit erstmalig Ihre Use Case Library.
Assessment
In unserem Assessment Workshop lernen Sie die strategisch wichtigen Bestandteile einer Data Strategy kennen. Wir erklären Ihnen die für Sie relevanten Aspekte von Machine Learning, Big Data und AI. Außerdem bewerten wir gemeinsam Ihren Status Quo, führen eine Standortbestimmung durch und machen ein Benchmarking Ihrer aktuellen Big Data, AI und Analytics Fähigkeiten.
Operating Model
Nachdem wir den Startpunkt Ihrer Data Journey festgelegt haben, beginnt die Reise. Das Operating Model ist Ihr „Digitalisierungs-Motor“, um aus Daten echte Mehrwerte zu schaffen. Gemeinsam definieren wir die 5 Säulen Ihres Data Operating Models: Organisationsstruktur, Prozesse, Rollen, Data Governance und IT-Systemlandschaft.
Roadmap
Für die initiale Befüllung Ihrer Use Case Library generieren wir eine umfangreiche Use Case Liste und priorisieren diese anhand Ihrer Ziele und unserer Erfahrung. In unserem Roadmap Workshop erarbeiten wir mit Design Thinking Methoden eine Übersicht und Vorauswahl an geeigneten Use Cases. Dabei übersetzen wir die Geschäftsprozesse in datengetriebene Fragestellungen.
Data Lab
Im DataLab geht die Data Journey weiter. Ziel ist es, möglichst schnell Use Cases zu testen. Hierzu erstellen wir als erstes ein Use Case Concept: Wir generieren Hypothesen für den Use Case und prüfen die notwendigen Daten. In der anschließenden Exploration führen wir einen Proof-of-Concept durch und bauen eine Testumgebung mit Ihren Daten. So können wir schnell beurteilen, ob der Use Case in der Realität umsetzbar ist oder nicht. Nach erfolgreicher Exploration programmieren wir den ersten Prototypen. Dabei handelt es sich sozusagen um die α-Version Ihrer Analytics bzw. Big Data App.
Concept
Wir generieren Hypothesen für den Use Case und prüfen die notwendigen Daten. Hierfür empfehlen wir unseren Use Case Workshop mit Design Thinking Elementen. Im Use Case Workshop machen wir aus der fachlichen Use Case Idee ein analytisches Konzept. .
Exploration
Prototype
Data Factory
Die Data Journey setzten wir in der Data Factory fort. Hier wird Ihr Use Case zum fertigen Produkt industrialisiert. Absoluter Fokus ist die Skalierung und nachhaltige Generierung von Mehrwerten– daher steht auch hier der Nutzer im Fokus. Als erstes erstellen wir einen Scaling Plan mit Priorisierung der Märkte, Funktionen und Marken. Danach gehen wir anhand des Skalierungskonzepts in die nächste Ausbaustufe des Piloten und machen aus dem Prototyp ein Minimum Viable Product (MVP) – quasi die ß -Version Ihrer Analytics bzw. Big Data App. Durch kontinuierliches Testen in der Entwicklungspipeline machen wir aus dieser ß-Version ein marktfähiges Data Product. Mittels DevOps verschmelzen Weiterentwicklung und Betrieb des Data Products.
Scaling Plan
Aus dem „zarten Pflänzchen“ (Prototyp) soll sukzessive ein stattlicher Baum werden. Im harschen und nicht immer innovations-freundlichen Umfeld außerhalb des DataLabs planen wir schrittweise die Skalierung und Industrialisierung. Dafür erstellen wir in der Data Factory eine Skalierungsroadmap mit Priorisierung der Märkte, Funktionen und Marken.
Pilot
Innerhalb des Piloten wird das sogenannte Minimum Viable Product (MVP) als ß-Version des Data Products entwickelt. Mehr Nutzer, mehr Daten, weitere Märkte sowie weitere Funktionalitäten dienen zur Entwicklung eines robusten Produkts. Außerdem wählen wir gemeinsam die passende Plattform für das Data Product aus.
Product
Das kontinuierliche und umfang-reiche Testen in der Entwicklungs-pipeline macht aus der ß-Version ein marktfähiges Data Product. Mittels DevOps verschmelzen Weiterentwicklung und Betrieb des Data Products. So kann das Produkt oder Ihr Service kontinuierlich optimiert werden.
DataOps
Sie haben ein fertiges Data Product und wollen dessen dauerhafte Wartung und Betrieb sicherstellen? Dann kommt DataOps ins Spiel. Das marktfähige, ausgerollte und produktive genutzte Data Product / Service wird in den nächsten Schritten weiterentwickelt, betrieben und bei Fehlern gewartet. Im Laufenden Betrieb wird das Data Product / Service unter Einhaltungen von Service Level Agreements (SLAs) gemonitort und im Rahmen des Incidentmanagements innerhalb Reaktions- und Lösungszeiten betreut. Generell wird hier zwischen Applikations- (Application Management) und Plattformbetrieb (Infrastructure Management) unterschieden.
Service Model Design
Um aus einem Datenprodukt einen robusten, skalierbaren und ggf. weltweit verfügbaren Business-Service zu enwickeln, muss ein Betriebskonzept bzw. Service-Modell etabliert werden. Dies umfasst Betriebs-Organisation, Prozesse, Rollen & Verantwortungen, Governance inkl. Reporting / SLA sowie das erforderliche Toolset. Zur Stand-ortbestimmung und Roadmap-Definition stellen wir Assessment-Workshops bereit und begleiten Sie mit bewährten Standards und Methoden im nachfolgenden Umsetzungsprojekt.
DevOps
Das Datenprodukt wird ge-meinsam mit der Data Factory kontinuierlich weiterentwickelt. Hierfür haben sich Methoden wie Testautomatisierung, Continuous Integration sowie Continuous Delivery etabliert. Somit ist eine stetige Erweiterung um neue Funktionalitäten bei gleichbleibend kurzen Releasezyklen sowie hoher Stabilität des Produkts möglich. Das Team wird um betriebserfahrene Kollegen erweitert und die Integration in bestehende Servicestrukturen vorgenommen.
Product as a Service
Servicestrukturen schaffen die Basis, um aus einem reinen Datenprodukt einen geschäfts-kritischen Daten-Service zu etablieren. Unser Servicekatalog ermöglicht den zielgerichteten und zeitnahen Aufbau eines Services. Vereinbarte Reaktions- und Lösungszeiten sowie gemeinsam definierte Servicetiefen führen zu einem hinsichtlich Leistung aber auch Kosten transparenten Servicemodells. Durch Integration von Offsite- bzw. Shoring-Kapazitäten ergeben sich Skalen- sowie Kostenreduktionseffekte.
Der Assesement Workshop
Sie wissen noch nicht wie Sie Ihre Datenstrategie im Unternehmen implementieren sollen? Mit der Data Strategy erhalten Sie von unseren Experten eine Einführung in die 5 wichtigsten Elemente und stellen Best Practices vor. Anschließend wird der Ist-Stand und das Zielbild für die 5 Dimensionen bewertet. Zu den Dimensionen gehören, Organisationsstruktur, Prozesse & Use Case Pipeline, Rollen, Data Governance und IT Systemlandschaft. So ist uns möglich konkrete Handlungsempfehlungen für Sie abzuleiten und eine individuelle Datenstrategie zu erarbeiten.
Data & AI Wissen
Gemeinsam Mehrwerte aus Data & AI schaffen