Big Data, Data Analytics und Data Science: Schlüssel der digitalen Transformation.

Unternehmen erzeugen und sammeln heute enorme Mengen an Daten. Jedes Unternehmen, das in einer sich stark wandelnden und beschleunigenden Ökonomie dauerhaft Erfolg haben will, muss diese Daten gewinnbringend einsetzen. Um Daten in wertvolles Wissen zu verwandeln, benötigen sie Data Science. Bei Data Science handelt es sich um ein äußerst vielfältiges Gebiet, das Expertisen sowohl in den Bereichen IT, Statistik, Mathematik und Big Data aber auch Kenntnisse der betriebswirtschaftlichen und makroökonomischen Abläufe erfordert. Dabei unterscheiden sich die Ziele von Data Science deutlich von den herkömmlichen IT-Aufgaben. Data-Science-Projekte stehen an der Schnittstelle zwischen unternehmerischen Daten unterschiedlichster Art und damit verknüpften Fragestellungen, die – konkrete und potenzielle – zukünftige Szenarien, Trends oder Ereignisse betreffen können.

Ziele von Data Science sind beispielsweise eine bessere Grundlage für Geschäftsentscheidungen zu schaffen, Prozesse zu steuern, zu optimieren oder zu automatisieren, Wettbewerbsvorteile zu erzielen und im Rahmen von Predictive Analytics belastbare Prognosen über zukünftige Ereignisse zu erstellen. Data Science lässt sich insofern als Synonym für eine neue Wahrnehmungsweise verstehen: Datenanalysen ermöglichen es, neue Einsichten in Bereichen zu gewinnen, die sich der Wahrnehmung bislang entzogen. Dadurch entstehen neue Perspektiven für Unternehmen, um sich im Wettbewerb einer digitalen und globalen Ökonomie zu behaupten.

Big Data und Data Science

In den letzten Jahren ist die Aufmerksamkeit für das Thema Big Data und Data Science seitens der Forschung und der Industrie sehr stark angestiegen. Big Data ist in diesem Zusammenhang ein machtvolles Instrument, das entsprechend oft ein wichtiger Bestandteil von Data-Science-Lösungen ist. Zunächst handelt es sich bei Big Data um einen Sammelbegriff, der ähnlich wie Data Sciences vielseitige Aspekte umfasst: Diese reichen vom umfassenden Erheben und Sammeln von Daten, ihrer sicheren, massenhaften Speicherung, der gleichzeitigen Verarbeitung großer Datenmengen bis hin zur Analyse und sinnvollen Verknüpfung mit Fragestellungen.

Die Erkenntnisse, die aus Datenanalysen gezogen werden können, erlauben es, Geschäftsprozesse besser zu verstehen, sie zu optimieren oder neue Geschäftsmodelle zu entwickeln. Auch aufgrund des Potenzials von Big Data, neue Geschäftszweige zu erschließen, wird Data Science insgesamt mehr und mehr zum unternehmerischen Erfolgsfaktor. Das Hype-Thema Big Data steht heute vielfach im Zentrum der digitalen Transformation. Darüber hinaus ist es wichtig zu betonen, dass Big Data und Data Science mehr sind als reine IT-Themen.

Fachliche und technologische Anforderungen

Data Science Projekte lassen sich entsprechend nicht als rein technologische Projekte begreifen, obwohl viele Aspekte davon datenbasiert sind. Technisches Know-how genügt nicht, um gewinnbringende Data Science Lösungen zu erarbeiten. Darin liegt einer der Hauptgründe, warum Data Science Experten so rar gesät sind. Ohne spezifische fachliche Kenntnisse zu betriebswirtschaftlichen Abläufen und der jeweiligen Branche, lassen sich schwer sinnvolle Fragestellungen entwickeln.

Der Name Big Data rührt von riesigen Datenmengen, die es im Rahmen von Data Science Projekten oft zu verarbeiten gilt. Bei unseren Lösungen fallen zum Teil täglich Millionen von Einzelmesswerten an, was vielen hundert Gigabyte von Daten entspricht. Die technischen Voraussetzungen von Big Data sind bis heute groß, wenngleich die Kosten dafür seit vielen Jahren sinken. Um große Mengen von Daten zu speichern und zu verarbeiten, sind große Rechenzentren und zum Teil viele hunderte parallel arbeitende Prozessoren notwendig. Alternativ zur Speicherung und Verarbeitung on premise, bietet sich heute vielfach die Auslagerung der Daten in der Cloud an.

Merkmale von Big Data

Wie es das Wort nahe legt, handelt es sich bei Big Data zunächst um eine „große“ Menge an Daten („Volume“). Da Daten einen kleinen Ausschnitt aus der Realität repräsentieren gilt in der Regel: Je mehr Daten zur Verfügung stehen, desto vollständiger ist das Bild, das wir uns damit von der Wirklichkeit machen können. Big Data besteht darüber hinaus in den meisten Fällen aus unterschiedlichsten Datentypen und äußerst komplexen Datensätzen („Variety“) – dadurch werden Zusammenhänge und Muster erkennbar. Die Herausforderung besteht darum oft darin, die Daten miteinander in eine sinnvolle Beziehung zu bringen. Neben der Datenmenge und der Datenvielfalt wird die schnelle Verfügbarkeit von Ergebnissen immer wichtiger. Mit einer entsprechenden Verarbeitungsgeschwindigkeit („Velocity“), die durch viele hundert parallel arbeitende Prozessoren gewährleistet wird, liegen Ergebnisse zum Teil in Echtzeit vor. Wären lediglich herkömmliche Computer am Werk, würde es Tage oder sogar Wochen dauern, bis Ergebnisse von Analysen vorliegen. Die Erkenntnisse wären dann zum großen Teil nutzlos.

Daten werden zum Teil extrem schnell erzeugt – die Turbine eines Windkraftwerks oder eines Flugzeugs, die von Sensoren überwacht wird, liefert pro Stunde bis zu 15 Terabyte an Roh- und Sensordaten. Die Relevanz der Informationen, die aus diesen Daten abgeleitet werden können, verfällt allerdings mit der Zeit („Variability“). Das Beispiel zeigt auch, warum Big Data auf dem Zusammenspiel verschiedener Teilaspekte beruht. Bahnt sich beispielsweise eine Fehlfunktion an, auf die regelmäßig erhöhte Temperaturen eines Bauteils hinweisen, ist diese Information nur hilfreich, wenn die Datengrundlage möglichst genau ist, mit anderen Daten verglichen werden kann, ein Modell zur Erkennung und Bewertung vorliegt und Ergebnisse möglichst in Echtzeit vorliegt. Dadurch erst entsteht ein Zeit- und Wissensvorteil, aus dem sich ein Handlungsspielraum ergibt: Der Betreiber weiß frühzeitig von einem sich anbahnenden Schaden und kann noch vor dem tatsächlichen Ausfall Gegenmaßnahmen ergreifen.

Business Intelligence vs. Data Science

Mit der Analyse von Geschäftsdaten beschäftigte sich bislang die klassische Business Intelligence (BI). Diese konzentrierte sich auf die Auswertung von Unternehmensdaten mit dem Ziel, Abläufe besser zu verstehen und Prozesse zu optimieren. Mit Data Science wird dieses Konzept wesentlich modernisiert. Bei (Advanced) Data Analytics und Predictive Analytics geht es nicht mehr nur darum, bestehende Daten und Prozesse zu analysieren, um die Vergangenheit besser zu verstehen, sondern darum, den Blick in die Zukunft zu richten: Ausgehend von Daten über Kunden, Portfolios, Vertriebs- und Marketingprozessen, Service, Risiken, Compliance, Preisentwicklung- und -bildung und aus der Finanzbuchhaltung werden Aussagen möglich, die in die Zukunft gerichtete Entscheidungen nachhaltig verbessern.

Die entscheidende Veränderung, die Data Science im Vergleich zur BI durch die Ausrichtung auf die Zukunft mit sich bringt, ist Dynamisierung: Anstatt reaktiv, aus dem Blick in die Vergangenheit Konsequenzen für die Gegenwart zu ziehen, kann der Blick direkt auf zukünftige Szenarien oder Ereignisse gerichtet werden. Data Science ermöglicht proaktives Handeln und wird gerade dadurch zum Treiber für Innovation. Der durch die Digitalisierung ausgelöste Wandel wird durch Data Science beherrschbar und bringt Unternehmen in die Position, die Zukunft aktiv zu gestalten.

 

Sie sind am Thema Data Science interessiert?Melden Sie sich für unseren kostenlosen Newsletter an.

Kontakt
 

Tags

top