Optimising the painting process: Data Science and Big Data in the Paint Shop

by | 24. September 2019 | Basics

Den Lackierprozess optimieren und Fehler langfristig vermeiden – Diese zwei Ziele lassen sich mit Data Science und Big Data in der Lackiererei erreichen. In diesem Blog-Artikel bieten wir Einblick in eines unserer Projekte. Dabei erklären wir grundlegende Anforderungen in Data-Science-Projekten und zeigen das Potential von Data Science für die Automobilbranche auf.

Bei der Fertigung und Montage einer Autokarosserie gibt es zahlreiche fehleranfällige Prozesse, die zeit- and kostenintensiv sind. Der Lackierprozess stellt dabei einen wesentlichen und zugleich fehleranfälligen Bestandteil dar. Eine Karosserie durchläuft den Lackierprozess häufig mehrfach. Einzelne Teile müssen sogar manuell nachgebessert werden. Daher stellt sich die Frage, wie sich der Lackierprozess optimieren lässt.

The IT-gestützte Einsatz von Big-Data–Analytics respectively Data Science ermöglicht es, den gesamten Fertigungsprozess ganzheitlich zu verstehen und nachhaltig zu optimieren. Dadurch gelingt es, Fehlerquellen auszuräumen und bislang nicht offensichtliche Zusammenhänge zu erkennen. Auf diese Weise entsteht ein umfangreiches Optimierungspotenzial, das es ermöglicht:

  • systematische Fehler zu vermeiden,
  • the Produktion in Real-time zu überprüfen und
  • the Fertigungsvorgang langfristig zu verbessern.

Die Herausforderungen bei Data-Science-Projekten: Das Verständnis der zugrundeliegenden Prozesse

Bei einem unserer Customers, einem Automobilhersteller, gab es im Rahmen des Karosseriebaus immer wieder Schwierigkeiten. Nach dem Lackieren der Einzelteile erfolgte die Erstmontage der Karosserie und in vielen Fällen passten die Teile nicht richtig oder das Spaltmaß passte nicht. Darum kam es zu aufwändigen, manuellen Nacharbeiten, die anschließend vorgenommen werden mussten.

Die Vermutung lag nahe, dass sich die Maße der Spalten und Fugen durch den Lackiervorgang beziehungsweise durch den zu dick aufgetragenen Lack so stark veränderten, dass bei der Montage die Sollwerte überschritten wurden.

Der Lackierprozess bei einem Autohersteller (Hier am Beispiel BMW).

Zugleich sind Fehler in der Lackierung einer der häufigsten Auslöser, die später Schäden an der Karosserie verursachen. Um den Lackierprozess optimieren zu können, mussten zunächst einige Grundlagen geklärt werden. Die Herausforderung besteht in diesem Fall in einem genaueren Verständnis des Lackierprozesses. Nur so lassen sich alle entscheidenden Ansatzpunkte zur Fehleranalyse and -vermeidung sowie Möglichkeiten zur Automation and Process optimisation identifizieren.

Suche nach geeigneten Quellen zur Datenerhebung

Eine weitere zentrale Herausforderung bei Data-Science-Projekten ist es, eine solide Data basis zu schaffen. Zu Beginn jedes Analyseprojektes steht daher die entscheidende Frage nach den Data sources. Insbesondere bei Prozessen, die noch nicht digitalisiert sind, beziehungsweise die sich nicht oder nur schwer digitalisieren lassen, stellt diese Frage eine besondere Herausforderung dar.

Im Fall der Lackiererei des Autoherstellers traf genau dieser Fall zu. Der Lack wird dort mit einem Lackierroboter in drei Phasen aufgetragen. Um eine Datengrundlage dieses Vorgangs zu erhalten, musste der gesamte Prozess in kleine Bestandteile zerlegt werden.

Die einzelnen Komponenten werden anschließend auf ihre Relevanz und ihre Eignung als Datenerhebungspunkte untersucht. Um Messwerte zu erhalten, müssen diese Stellen zum Teil mit geeigneten Sensors ausgestattet werden. Daraus ergeben sich eine ganze Reihe von Parametern, die in den Analyseprozess einbezogen werden: Die pro Lackiervorgang verwendete Lackmenge, der PH-Wert des Lacks, der Druck beim Lackieren, die Trockentemperatur oder Daten über die Verweildauer an bestimmten Stationen. Dieses Prinzip der Datenerhebung lässt sich auf diverse andere Anwendungsfälle übertragen. Die Frage dabei ist stets, welche Datenquellen es gibt und welche sich zusätzlich noch erschließen lassen.

Linktipp: Die Datenbereitstellung ist einer der zentralen Bestandteile von Datenprojekten. Lesen Sie alles darüber in unserem Artikel über Data-Pipelines.

Datenmodellierung, Big Data und ganzheitliche Datenprozesse

Der erste Schritt auf dem Weg zur Lösung ist die Erstellung eines Modells, das so genau wie möglich die Wirklichkeit beschreiben soll. Im Rahmen eines Data-Science-Prozesses wird ein technisches Datenmodell erstellt, um wie in diesem Fall den Lackierprozess optimieren zu können. Dazu muss zunächst eine Datengrundlage geschaffen und diese in der Folge stets aktualisiert werden. Das bedeutet: Big-Data-Analysen sind iterative Vorgänge.

Sie machen es teilweise erforderlich, Daten in großem Maßstab permanent zu erheben, um so ein möglichst genaues Bild des gesamten Vorgangs zu erhalten. Eine Analogie zur Verdeutlichung: Anhand eines einzelnen Fotos von einem Auto, lässt sich nicht sagen, ob es fährt, steht, beschleunigt oder abbremst. Erhöht sich jedoch die Data basis auf 24 Bilder pro Sekunde, bekommen wir ein exaktes Abbild vom Verhalten des Autos.

Je größer und genauer die Datengrundlage, desto exakter sind die Analysen und Forecasts über das aktuelle und zukünftige Verhalten in der Wirklichkeit. Im Fall der Fertigung der Autokarosserie erfolgt eine Datenerhebung und Analyse auf drei Ebenen:

  • Erstens durch die Messung der Lackschichtdicke
  • Zweitens durch die Messung des Spalt- und Fugenmaßes
  • Drittens durch eine Lackfehler-Analyse auf Basis von optischen Bildanalysen

Durch seinen ganzheitlichen Ansatz führte dieses Data model zu Erkenntnissen, die nicht erwartet wurden. Beispielsweise konnte ein direkter Zusammenhang zwischen einem einzelnen Parameter des Lackierprozesses und der Veränderung des Spalt- und Fugenmaßes festgestellt werden.

Die Lösung: Visualisierung, Prognose und Kontrolle in Echtzeit

Bei der Lösung für den Autohersteller konnte durch eine Vielzahl von Sensoren gezielt an den relevanten Punkten Data erhoben und damit der gesamte Fertigungsprozess dokumentiert werden. Aufbauend auf dieser Datenbasis konnte ein Datenmodell entwickelt und so ein umfassendes technisches und fachliches Datenverständnis geschaffen werden. Mit Hilfe des Modells ließen sich die signifikanten Einflussparameter zur Prognose der optimalen Lackschichtdicke identifizieren.

Diese wird nun in Echtzeit visualisiert, so dass Zusammenhänge and Auffälligkeiten hinsichtlich Lackfehlern und Lackschichtdicke sofort identifiziert werden können. Durch die Echtzeit-Visualisierung kann zu jeder Zeit festgestellt werden, wann und wie der Lackierprozess angepasst werden muss, um das richtige Spalt- und Fugenmaß zu erhalten.

Der große Vorteil: Schon während des Vorgangs des Lackierens kann eine Qualitätskontrolle durchgeführt werden. Fehler werden früher erkannt, Ursachen können sofort beseitigt werden und die Qualität des Ergebnisses nachhaltig und signifikant gesteigert werden.

Das Ergebnis: Weniger Fehler, höherer Automatisierungsgrad und ein besseres Verständnis des Gesamtprozesses

Am Ende konnten verschiedene Prozessparameter identifiziert werden, die signifikanten Einfluss auf die Lackschichtdicke haben und den Lackierprozess optimieren. Durch das verbesserte Verständnis des Gesamtprozesses konnten kausale Zusammenhänge erkannt werden. Die Data analysis and -modellierung führte zu der Notwendigkeit, bestimmte am Prozess beteiligte Parameter einer permanenten Datenerhebung zu unterziehen.

Zugleich gelang es, andere Teilprozesse wie beispielsweise die Qualitätskontrolle des Lackierprozesses zu automatisieren. Mess- und Sollwerte werden schon während des Lackierprozesses miteinander abgeglichen. Durch die Analyse auf granularer Ebene konnten sogar weitere Unregelmäßigkeiten in den einzelnen Lackschichten visualisiert werden.

Linktipp: Lesen Sie hier unseren Beitrag über Vorteile und Chancen der Digitalisierung für den Mittelstand.

Den Lackierprozess optimieren und nachhaltig die Qualität erhöhen

Aufgrund dieser Maßnahmen gelang es, den Lackierprozess zu optimieren. Durch die große Bandbreite an Fehlermessstationen konnten gleich mehrere, voneinander verschiedene Fehlerbilder bestimmt werden. Die Qualität der Lackierung konnte dadurch signifikant gesteigert werden. Im Ergebnis war es dadurch möglich, die Fehlerintensität bauteilabhängig zu bestimmen und teilweise automatisiert zu reduzieren.

Dies gelingt insbesondere dadurch, dass in Echtzeit prädiktive Handlungsempfehlungen vorliegen. Der Algorithm bestimmt die optimalen Sollwerte für den Karosseriebau und erstellt eine Prognose für die Lackdicke. Die bis dato oftmals notwendigen Nacharbeiten wurden auf diese Weise auf ein Minimum reduziert, während die Qualität des Lackes gleichzeitig erhöht wurde.

Sie wünschen sich noch mehr Kenntnisse im Data Science Bereich? Melden Sie sich für unsere Data Science Schulung an.

<a href="https://www.alexanderthamm.com/en/blog/author/michaela/" target="_self">Michaela Tiedemann</a>

Michaela Tiedemann

Michaela Tiedemann has been part of the Alexander Thamm GmbH team since the early start-up days. She has actively shaped the development from a fast-moving, spontaneous start-up to a successful company. With the founding of her own family, a whole new chapter began for Michaela Tiedemann at the same time. Hanging up her job, however, was out of the question for the new mother. Instead, she developed a strategy to reconcile her job as Chief Marketing Officer with her role as a mother.

0 Comments