AT_Logo
Data Mining – Methoden und Beispiele aus der Praxis

Data Mining – Methoden und Beispiele aus der Praxis

Data Mining ist einer der Grundbegriffe im Kontext der Digitalisierung und Data Science. Er taucht insbesondere im Umfeld von Big-Data-Projekten und Data-Analytics-Methoden auf. Der Begriff bezeichnet dabei ganz allgemein den systematischen, mathematisch-statistischen Umgang mit Daten. Das Ziel dabei ist stets, Muster, Beziehungen und Zusammenhänge in großen Datenmengen zu finden. Dieser Artikel gibt einen Überblick über die zugrundeliegende Theorie und veranschaulicht die Thematik anhand von 3 Praxis-Beispielen.

(mehr …)
Digitalisierung im Mittelstand: Das müssen Sie wissen

Digitalisierung im Mittelstand: Das müssen Sie wissen

Die Digitalisierung im Mittelstand ist laut mehreren Studien ein immer wichtiger werdendes Thema. Die wichtigsten Treiber dieser Entwicklung sind Kosteneinsparpotential, Effizienzsteigerung und die Verbesserung der Kundenbeziehung.

Data Science, Advanced Analytics und gut ausgebaute IT-Struktur sind heute und in Zukunft wesentliche Kernbestandteile, die Erfolg und Wettbewerbsfähigkeit sichern und für eine Digitalisierung im Mittelstand sorgen. Das Thema hat deswegen einen so hohen Stellenwert, weil der Mittelstand das Rückgrat der deutschen Wirtschaft bildet.

Die Studien zur Digitalisierung im Mittelstand verweisen immer wieder auf die noch offenen Handlungsfelder. Denn insgesamt geht die Digitalisierung immer noch zu langsam, zu zögerlich und zu unsystematisch vonstatten. Vor allem die Betriebe mit weniger als 500 Mitarbeitern hinken bezüglich der Investitionen in die Digitalisierung hinterher.

Dabei stehen heute mit der Blockchain, dem autonomen Fahren und der Künstlichen Intelligenz längst die nächsten Herausforderungen vor der Tür. Der Handlungsbedarf bei der Digitalisierung im Mittelstand steigt damit kontinuierlich weiter. Die Hürden für diejenigen Betriebe, die zu lange abwarten, werden gleichzeitig immer höher. Da der digitale Wandel in jedem Unternehmen eine gewisse Zeit in Anspruch nimmt, lohnt es sich, so früh wie möglich in den Change-Prozess einzusteigen.

Konsequenzen & Chancen der Digitalisierung im Mittelstand

Kürzere Innovationszyklen, bessere Planbarkeit und neue Geschäftsmodelle sind das A und O. Die Digitalisierung bringt es mit sich, dass Innovationen in immer kürzeren Abständen erfolgen.

Beispiele aus der Praxis

Smartphone-Markt: Bei Apple oder Samsung erscheint spätestens nach einem Jahr ein neues Modell. Viele andere Branchen halten mit diesem Takt Schritt – unter anderem auch deswegen, weil die Erwartungshaltung der Kunden sich verändert hat.

Der Autohersteller Tesla treibt diese Tendenz auf die Spitze: Neuerungen und Innovationen werden permanent in die aktuelle Produktion integriert. Für ein Update muss ein Tesla-Besitzer nicht mehr extra in die Werkstatt fahren, weil diese direkt online eingespielt werden.

Die Gründe für die immer kürzeren Produkt- und Innovationszyklen finden sich in der Digitalisierung selbst. Digitale Kommunikation und neue Formen der Kollaboration wie Videochats, Messenger oder Content-Management-Systeme beschleunigen die Arbeitsprozesse. Auch moderne 3D-Druckverfahren machen das Herstellen von Prototypen immer leichter.      

Neue Technologien, die zunehmende Automatisierung sowie die digitale Vernetzung führen zu einer immer effektiveren, optimierten und agileren Form des Wirtschaftens. Aufgrund ihres großen Potenzials, wird diese Entwicklung mit dem Begriff Industrie 4.0 bezeichnet.

Gleichzeitig werden immer mehr Daten und damit Informationen darüber verfügbar, wo es Versorgungslücken oder Optimierungsmöglichkeiten gibt. Datenanalysen ermöglichen es, den aktuellen und zukünftigen Bedarf, die Auslastung oder den Wartungsbedarf genau zu prognostizieren. Dadurch entsteht eine größere Planungssicherheit und unvorhergesehene Ausfälle lassen sich dadurch verhindern.

Die Analyse und Prognose von Trends kann auch dazu führen, dass neue Geschäftsfelder entstehen oder neue Geschäftsmodelle als sinnvolle Ergänzung zu den Aktuellen hinzukommen. Die gesamten Produktionsprozesse können sich verändern und verbessern, wenn man etwa an die Möglichkeiten der Smart Factory denkt.

Die Basis sind Ihre Daten

Einer der Schlüssel auf dem Weg zu einem innovativen und datengetriebenen Unternehmen liegt in der Erhebung, Speicherung und Auswertung von Daten. Daten verfügen über ein enormes Potenzial – sie können Licht ins Dunkel bringen. Auf vielen Servern von mittelständischen Unternehmen befinden sich bereits große Mengen von Daten, die dort jedoch ungenutzt herumliegen.

Viele dieser Daten können wertvolle Erkenntnisse liefern, wenn man sie beispielsweise in Data Analytics Projekten als historische Daten integriert. So lassen sich beispielsweise Zusammenhänge zwischen zahlreichen Faktoren herstellen wie:

  • Auftragslage
  • Nachfrage
  • Auslastung
  • Konjunktur
  • Social-Media-Trends
  • Wetter
  • Umsatz
  • Gewinn

Das Wissen über bestimmte Korrelationen kann eine Grundlage für die Geschäftsführung werden, um Entscheidungen zu verbessern. Mit Predictive Analytics lassen sich Trends frühzeitig erkennen und so unabhängig von Intuition und Bauchgefühl Entscheidungen über die Investition in Zukunftsmärkte fällen.

Dieses Video zeigt im Überblick, welche Aspekte ein Data Warehouse für ein Unternehmen hat.

Das Ziel der Digitalisierung im Mittelstand

Die Überprüfung und Erweiterung der Wertschöpfungskette können enorme wirtschaftliche Auswirkungen haben und über Rentabilität und langfristiges Überleben am Markt entscheiden. Wenn sich ein mittelständisches Unternehmen für Data Science Projekte entschließt, kann es auch sein, dass – je nach Fragestellung – zusätzlich an bestimmten Stellen Daten erhoben werden müssen.

Die Firma Kärcher, ein globaler Anbieter von Reinigungsgeräten, bietet ein gutes Beispiel für die datengetriebene Digitalisierung. Das Unternehmen ermöglicht seinen Kunden, den gesamten Maschinenpark zu vernetzen. So wissen ihre Kunden wie beispielsweise Reinigungsfirmen zu jeder Zeit, wo ihre Geräte im Einsatz sind und in welchem Zustand sie sich befinden. Dadurch steht kein Gerät defekt und ungenutzt herum oder wird aus Versehen vergessen.

Aufbauend auf dieser IoT-Plattform können neue Geschäftsmodelle entwickelt werden. Wer einen genauen Überblick über die Auslastung seiner Flotte hat, kann ungenutzte Kapazitäten monetarisieren und beispielsweise an andere Unternehmen oder Privatnutzer vermieten.

Big Data im Mittelstand bietet großes Wachstums- und Entwicklungspotenzial

Die digitale Transformation führt dazu, dass im Vergleich zu früher immer mehr Datenquellen, mehr Datenarten und damit mehr Informationen zur Verfügung stehen. Der eigentliche wirtschaftliche Nutzen in der Digitalisierung im Mittelstand entsteht erst dann, wenn diese Informationen in Wissen verwandelt werden, das zu einer Anpassung oder Veränderung im Betrieb führt.

Anlagenbauer, die ihre Maschinen vernetzen, können sich im Wettbewerb durch einen besseren Service von ihren Konkurrenten abheben. Taucht ein Problem mit einer der Anlagen auf, können proaktiv Lösungsvorschläge angeboten werden. Selbst wenn sich eine Maschine am anderen Ende der Welt befindet.

Aber auch in anderer Hinsicht hilft die Digitalisierung bei mittelständischen Unternehmen bei der Sicherung von Wettbewerbsvorteilen. Wer Trends und wachsende Zukunftsmärkte früh erkennen und schnell darauf reagieren will, braucht anpassungsfähige Prozesse und agile Organisationsstrukturen. Eigenschaften, die ebenfalls durch die Digitalisierung erreicht werden können. Grund genug also, um den digitalen Wandel auf der Ebene der Geschäftsführung zu verankern und entsprechende Rahmenbedingungen zu schaffen.

Ein Blick in die vergleichsweise junge Geschichte des digitalen Zeitalters zeigt, dass der Wandel sich rasant entwickelt und sogar große Konzerne zu Fall bringt. Die Digitalisierung stellt eine große Chance für den Mittelstand dar, sich auf seine Stärken zu konzentrieren und diese weiter auszubauen: Eine hohe Flexibilität und Agilität, qualitativ hochwertige Produkte sowie nicht zuletzt ein gutes, auf langjährigem Vertrauen basierendes Kundenverhältnis.

Sie haben konkrete Fragen zu Ihrem Unternehmen? Wir bieten Ihnen Beratung zur Digitalisierung für mittelständische Unternehmen. Sprechen Sie mit unseren Experten.

Absatzprognosen mit KI – Der Konkurrenz ein Stück voraus

Absatzprognosen mit KI – Der Konkurrenz ein Stück voraus

Bei Regenwetter wird kaum Grillfleisch gekauft und bei niedrigen Temperaturen weniger Sushi. Einfache Zusammenhänge wie diese haben aber zwei Probleme: Zum einen sind sie erst sehr kurzfristig verfügbar, während Produktion und Lieferketten längerfristige Prozesse sind. Zum anderen sind sie relativ ungenau, sodass bei der Planung immer noch ein großer Puffer eingerechnet werden muss. Der Handel und die Hersteller von verderblichen Waren brauchen für ihre Planung und strategische Entwicklung exakte Absatzprognosen. Im Zeitalter von Künstlicher Intelligenz und Machine Learning ist es möglich, Absatzprognosen so genau wie niemals zuvor zu berechnen. Das bringt Händlern große Vorteile und ein enormes Potenzial

Wettbewerb, Absatzvolumen und Marktanteile im Lebensmittel

Insbesondere für Lebensmittel-Hersteller und -Händler aber auch für Konsumgüterhersteller ist es von enormer Wichtigkeit, Marktchancen und Marktrisiken frühzeitig richtig zu erkennen und entsprechend zu planen und zu kalkulieren. Genaue Absatzprognosen verschaffen Unternehmen einen Vorlauf, der ihnen den entscheidenden Vorteil bringen kann.

Die größte Herausforderung bei verderblichen Lebensmitteln und Konsumgütern ist es, die tatsächlich nachgefragte Menge so exakt wie möglich im Vorfeld zu kennen. Die Voraussetzung für genaue Absatzprognosen ist die Verfügbarkeit von messbaren Daten und entsprechenden Datenquellen.

Optimierte Absatzprognose dank KI

Die Faktoren, die bei der Mengenplanung zugrunde gelegt werden, sind dabei vielschichtiger als einfache Wettervorhersagen. Insbesondere weil es zur Wechselwirkung von mehreren Faktoren kommen kann, waren bisher statische Modelle nicht genau genug. Insbesondere dann, wenn es um längerfristige Prognosen ging, stießen sie an Grenzen. Dank KI-gestützter Methoden können heute jedoch auch komplexe Modelle als Grundlage für Absatzprognosen herangezogen werden.

Die Auswertung von Daten über vergangene Absätze können Muster und Zusammenhänge zum Vorschein bringen, die Aussagen über zukünftige Absätze zulässt. Zu den wichtigsten Faktoren, die mit einberechnet werden können, zählen:

  • Gesamtmarktentwicklung
  • Marktvolumen und Marktpotenzial
  • Nachfrage
  • Trends
  • Wetter
  • Verkaufshistorie

TIPP:
Mit unserer Sales Forecasting Software „AT Sales Forecast“ helfen wir Ihnen mit den neuesten KI Algorithmen Ihre Verkäufe zu steigern und Aufwände zu reduzieren.

Hohe Präzision bei kurz-, mittel- und langfristigen Prognosen

Besonders durch den Einsatz von Machine-Learning-Algorithmen kann eine Präzision bei Absatzprognosen erreicht werden, die in diesem Detailgrad und der Verlässlichkeit bislang nicht möglich war. Die Lernfähigkeit von Machine-Learning-Algorithmen führt dazu, dass die Prognosen im Laufe der Zeit immer genauer werden. Das gelingt, indem die lernfähigen Algorithmen Feedback in Form des tatsächlichen Absatzes bekommen.

Mit der Zeit lernen die Algorithmen, die einzelnen Faktoren immer besser zu gewichten und so zu genauen Absatzprognosen zu kommen. Predictive Modeling mit Künstlichen Neuronalen Netzwerken machen langfristige Vorhersagen möglich, die mit den traditionellen Methoden stark fehleranfällig waren. Gerade sie sind aber für die langfristige Planung von besonderer Bedeutung.

Die Vorteile Absatzprognosen mit KI

Es gibt eine ganze Reihe von Vorteilen, die sich aus KI-gestützten Absatzprognosen ableiten. Nicht jeder Einzelhändler wird dabei den vollen Umfang des prinzipiell möglichen ausschöpfen. Daher ist es wichtig, zunächst den konkreten Bedarf festzustellen, den verfügbaren Datenbestand zu überprüfen und den Proof-of-Value zu testen. Absatzprognosen bringen Händlern und Herstellern unter anderem folgende Vorteile:

  • Bessere Planung von Warenbeständen dank präziser Prognosen
  • Bessere Positionierung am Markt gegenüber Mitwettbewerbern
  • Steigerung des Gewinns und Minimierung der Abschreibe-Summen
  • Optimale Steuerung von Produktion, Produktionsmitteln und Mitarbeiterplanung
  • Aufbau von Know-how im Rahmen einer Datenstrategie
  • Erschließung und Integration von unterschiedlichen Datenquellen in das Unternehmen mit dem Potential für weitere, zusätzliche Data-Science-Projekte

Mit fortschrittlichen Methoden wie Absatzprognosen mit KI können sich Händler und Hersteller nicht nur einfach ein Wissen über Wetterbedingungen verschaffen, sondern auch verlässliche, mittel- und langfristige Prognosen im Rahmen komplexer Szenarien erhalten. Diese ermöglichen es ihnen, alle Prozesse besser als jemals zuvor zu planen und zu steuern.

Lackierprozess optimieren: Data Science und Big Data in der Lackiererei

Lackierprozess optimieren: Data Science und Big Data in der Lackiererei

Den Lackierprozess optimieren und Fehler langfristig vermeiden – Diese zwei Ziele lassen sich mit Data Science und Big Data in der Lackiererei erreichen. In diesem Blog-Artikel bieten wir Einblick in eines unserer Projekte. Dabei erklären wir grundlegende Anforderungen in Data-Science-Projekten und zeigen das Potential von Data Science für die Automobilbranche auf.

Bei der Fertigung und Montage einer Autokarosserie gibt es zahlreiche fehleranfällige Prozesse, die zeit– und kostenintensiv sind. Der Lackierprozess stellt dabei einen wesentlichen und zugleich fehleranfälligen Bestandteil dar. Eine Karosserie durchläuft den Lackierprozess häufig mehrfach. Einzelne Teile müssen sogar manuell nachgebessert werden. Daher stellt sich die Frage, wie sich der Lackierprozess optimieren lässt.

Der IT-gestützte Einsatz von Big-Data–Analytics beziehungsweise Data Science ermöglicht es, den gesamten Fertigungsprozess ganzheitlich zu verstehen und nachhaltig zu optimieren. Dadurch gelingt es, Fehlerquellen auszuräumen und bislang nicht offensichtliche Zusammenhänge zu erkennen. Auf diese Weise entsteht ein umfangreiches Optimierungspotenzial, das es ermöglicht:

  • systematische Fehler zu vermeiden,
  • die Produktion in Echtzeit zu überprüfen und
  • den Fertigungsvorgang langfristig zu verbessern.

Die Herausforderungen bei Data-Science-Projekten: Das Verständnis der zugrundeliegenden Prozesse

Bei einem unserer Kunden, einem Automobilhersteller, gab es im Rahmen des Karosseriebaus immer wieder Schwierigkeiten. Nach dem Lackieren der Einzelteile erfolgte die Erstmontage der Karosserie und in vielen Fällen passten die Teile nicht richtig oder das Spaltmaß passte nicht. Darum kam es zu aufwändigen, manuellen Nacharbeiten, die anschließend vorgenommen werden mussten.

Die Vermutung lag nahe, dass sich die Maße der Spalten und Fugen durch den Lackiervorgang beziehungsweise durch den zu dick aufgetragenen Lack so stark veränderten, dass bei der Montage die Sollwerte überschritten wurden.

Der Lackierprozess bei einem Autohersteller (Hier am Beispiel BMW).

Zugleich sind Fehler in der Lackierung einer der häufigsten Auslöser, die später Schäden an der Karosserie verursachen. Um den Lackierprozess optimieren zu können, mussten zunächst einige Grundlagen geklärt werden. Die Herausforderung besteht in diesem Fall in einem genaueren Verständnis des Lackierprozesses. Nur so lassen sich alle entscheidenden Ansatzpunkte zur Fehleranalyse und –vermeidung sowie Möglichkeiten zur Automatisierung und Prozessoptimierung identifizieren.

Suche nach geeigneten Quellen zur Datenerhebung

Eine weitere zentrale Herausforderung bei Data-Science-Projekten ist es, eine solide Datengrundlage zu schaffen. Zu Beginn jedes Analyseprojektes steht daher die entscheidende Frage nach den Datenquellen. Insbesondere bei Prozessen, die noch nicht digitalisiert sind, beziehungsweise die sich nicht oder nur schwer digitalisieren lassen, stellt diese Frage eine besondere Herausforderung dar.

Im Fall der Lackiererei des Autoherstellers traf genau dieser Fall zu. Der Lack wird dort mit einem Lackierroboter in drei Phasen aufgetragen. Um eine Datengrundlage dieses Vorgangs zu erhalten, musste der gesamte Prozess in kleine Bestandteile zerlegt werden.

Die einzelnen Komponenten werden anschließend auf ihre Relevanz und ihre Eignung als Datenerhebungspunkte untersucht. Um Messwerte zu erhalten, müssen diese Stellen zum Teil mit geeigneten Sensoren ausgestattet werden. Daraus ergeben sich eine ganze Reihe von Parametern, die in den Analyseprozess einbezogen werden: Die pro Lackiervorgang verwendete Lackmenge, der PH-Wert des Lacks, der Druck beim Lackieren, die Trockentemperatur oder Daten über die Verweildauer an bestimmten Stationen. Dieses Prinzip der Datenerhebung lässt sich auf diverse andere Anwendungsfälle übertragen. Die Frage dabei ist stets, welche Datenquellen es gibt und welche sich zusätzlich noch erschließen lassen.

Linktipp: Die Datenbereitstellung ist einer der zentralen Bestandteile von Datenprojekten. Lesen Sie alles darüber in unserem Artikel über Data-Pipelines.

Datenmodellierung, Big Data und ganzheitliche Datenprozesse

Der erste Schritt auf dem Weg zur Lösung ist die Erstellung eines Modells, das so genau wie möglich die Wirklichkeit beschreiben soll. Im Rahmen eines Data-Science-Prozesses wird ein technisches Datenmodell erstellt, um wie in diesem Fall den Lackierprozess optimieren zu können. Dazu muss zunächst eine Datengrundlage geschaffen und diese in der Folge stets aktualisiert werden. Das bedeutet: Big-Data-Analysen sind iterative Vorgänge.

Sie machen es teilweise erforderlich, Daten in großem Maßstab permanent zu erheben, um so ein möglichst genaues Bild des gesamten Vorgangs zu erhalten. Eine Analogie zur Verdeutlichung: Anhand eines einzelnen Fotos von einem Auto, lässt sich nicht sagen, ob es fährt, steht, beschleunigt oder abbremst. Erhöht sich jedoch die Datengrundlage auf 24 Bilder pro Sekunde, bekommen wir ein exaktes Abbild vom Verhalten des Autos.

Je größer und genauer die Datengrundlage, desto exakter sind die Analysen und Prognosen über das aktuelle und zukünftige Verhalten in der Wirklichkeit. Im Fall der Fertigung der Autokarosserie erfolgt eine Datenerhebung und Analyse auf drei Ebenen:

  • Erstens durch die Messung der Lackschichtdicke
  • Zweitens durch die Messung des Spalt- und Fugenmaßes
  • Drittens durch eine Lackfehler-Analyse auf Basis von optischen Bildanalysen

Durch seinen ganzheitlichen Ansatz führte dieses Datenmodell zu Erkenntnissen, die nicht erwartet wurden. Beispielsweise konnte ein direkter Zusammenhang zwischen einem einzelnen Parameter des Lackierprozesses und der Veränderung des Spalt- und Fugenmaßes festgestellt werden.

Die Lösung: Visualisierung, Prognose und Kontrolle in Echtzeit

Bei der Lösung für den Autohersteller konnte durch eine Vielzahl von Sensoren gezielt an den relevanten Punkten Daten erhoben und damit der gesamte Fertigungsprozess dokumentiert werden. Aufbauend auf dieser Datenbasis konnte ein Datenmodell entwickelt und so ein umfassendes technisches und fachliches Datenverständnis geschaffen werden. Mit Hilfe des Modells ließen sich die signifikanten Einflussparameter zur Prognose der optimalen Lackschichtdicke identifizieren.

Diese wird nun in Echtzeit visualisiert, so dass Zusammenhänge und Auffälligkeiten hinsichtlich Lackfehlern und Lackschichtdicke sofort identifiziert werden können. Durch die Echtzeit-Visualisierung kann zu jeder Zeit festgestellt werden, wann und wie der Lackierprozess angepasst werden muss, um das richtige Spalt- und Fugenmaß zu erhalten.

Der große Vorteil: Schon während des Vorgangs des Lackierens kann eine Qualitätskontrolle durchgeführt werden. Fehler werden früher erkannt, Ursachen können sofort beseitigt werden und die Qualität des Ergebnisses nachhaltig und signifikant gesteigert werden.

Das Ergebnis: Weniger Fehler, höherer Automatisierungsgrad und ein besseres Verständnis des Gesamtprozesses

Am Ende konnten verschiedene Prozessparameter identifiziert werden, die signifikanten Einfluss auf die Lackschichtdicke haben und den Lackierprozess optimieren. Durch das verbesserte Verständnis des Gesamtprozesses konnten kausale Zusammenhänge erkannt werden. Die Datenanalyse und –modellierung führte zu der Notwendigkeit, bestimmte am Prozess beteiligte Parameter einer permanenten Datenerhebung zu unterziehen.

Zugleich gelang es, andere Teilprozesse wie beispielsweise die Qualitätskontrolle des Lackierprozesses zu automatisieren. Mess- und Sollwerte werden schon während des Lackierprozesses miteinander abgeglichen. Durch die Analyse auf granularer Ebene konnten sogar weitere Unregelmäßigkeiten in den einzelnen Lackschichten visualisiert werden.

Linktipp: Lesen Sie hier unseren Beitrag über Vorteile und Chancen der Digitalisierung für den Mittelstand.

Den Lackierprozess optimieren und nachhaltig die Qualität erhöhen

Aufgrund dieser Maßnahmen gelang es, den Lackierprozess zu optimieren. Durch die große Bandbreite an Fehlermessstationen konnten gleich mehrere, voneinander verschiedene Fehlerbilder bestimmt werden. Die Qualität der Lackierung konnte dadurch signifikant gesteigert werden. Im Ergebnis war es dadurch möglich, die Fehlerintensität bauteilabhängig zu bestimmen und teilweise automatisiert zu reduzieren.

Dies gelingt insbesondere dadurch, dass in Echtzeit prädiktive Handlungsempfehlungen vorliegen. Der Algorithmus bestimmt die optimalen Sollwerte für den Karosseriebau und erstellt eine Prognose für die Lackdicke. Die bis dato oftmals notwendigen Nacharbeiten wurden auf diese Weise auf ein Minimum reduziert, während die Qualität des Lackes gleichzeitig erhöht wurde.

Sie wünschen sich noch mehr Kenntnisse im Data Science Bereich? Melden Sie sich für unsere Data Science Schulung an.