Qualitätsprobleme während der Bearbeitung erkennen

von | 29. September 2021 | Tech Deep Dive

Hier sind zwei Gründe, warum Sie diesen Blog-Artikel keinesfalls lesen sollten:

  1. Es geht um Condition Monitoring und Predictive Maintenance…
  2. … und damit um einen absoluten Standard Use Case im Machine Learning. Wir freuen uns aber, dass sie noch dabei sind…

Und hier sind zwei Argumente, warum sie vielleicht doch erst einmal weiterlesen sollten:

  1. In der Werkzeugmaschinenindustrie sind wir vom Einsatz künstlicher Intelligenzen noch weit entfernt…
  2. .. obwohl der Einsatz von Machine Learning in dieser Industrie Millionen einsparen kann.

In einer zweiteiligen Blogartikel-Reihe zeigen wir die Möglichkeiten der Datenauswertung und den Einsatz von Maschinellem Lernen bei der spanenden Bearbeitung mit CNC-Maschinen. Wir klären, wie man an die Daten der Maschinen kommt, wie zusätzliche Daten den Nutzen weiter erhöhen können und wie damit Kosten eingespart werden können.

Im Zuge des MAI ILQ2020 Forschungsprojektes haben wir zusammen mit der BMW Group, dem Kernkompetenzzentrum Finanz- & Informationsmanagement der Universität Augsburg, der inno-focus businessconsulting gmbh und Hufschmied Zerspanungssysteme GmbH untersucht, inwieweit bereits während der Produktion (Inline) eine Qualitätskontrolle erfolgen kann und so schon vor Entstehen von Qualitätsproblemen eingegriffen werden kann. Die Produktionstechnik und Informationstechnologie sind zwei Bereiche, die bis zuletzt noch meist getrennt voneinander agierten und oft nur wenige Schnittstellen hatten. Die stetige Digitalisierung der Produktion führt diese Bereiche immer weiter zusammen. Um den größten Nutzen zu erhalten, müssen diese Bereiche verschmelzen. Dieser Artikel hilft beiden Seiten zu verstehen, zeigt auf welche Schnittstellen es gibt und welche Möglichkeiten bei einer Zusammenarbeit entstehen.

Der Weg zu den Maschinendaten

Ein Bearbeitungszentrum (BAZ) ist eine CNC-Maschine, die mindestens zwei Bearbeitungsoperationen mit automatischem Werkzeugwechsel unterstützt (Abb. 1).

Abbildung 1 (Quelle: grobgroup.de)

Diese Bearbeitungszentren, vor allem gebaut von großen Herstellern wie DMG Mori und GROB-WERKEN, werden mit verschiedenen Steuerungssystemen betrieben, wobei laut einer gemeinsamen Marktstudie von MM Maschinenmarkt und dem Internetforum CNC-Arena die Steuerungshersteller Heidenhain, Siemens und Fanuc einen Anteil von etwa 80 % der eingesetzten Steuerungen für die CNC-Bearbeitung haben.

Die Steuerung soll die vorgegebenen Einstellungen, wie Drehzahl oder Position der Spindel, so genau wie möglich einhalten. Hier wird schon seit den 1960er Jahren ein digitaler Ansatz verfolgt. Bei dieser Regelung entstehen ungenutzte Steuerungsdaten, die weder von der Maschine verwendet, werden noch ausgewertet werden. Aber in genau diesen Daten steckt bereits Information über die Qualität der Bauteile und den Zustand des Werkzeuges.

Glücklicherweise erkennen auch langsam die Hersteller der Steuerungssysteme dieses Potential und bieten Systeme an, die das Auslesen der Daten vereinfachen und automatisieren können. GROB bietet beispielsweise Module wie GROB4Line an, um die wichtigsten Daten auszulesen und direkt an eine Cloud weiterzuleiten. Dabei werden nicht nur Maschinendaten gesendet, sondern auch Informationen über die gewechselten Werkzeuge, Maschinenalarme und das aktuell laufende NC-Programm. Dabei ist zu beachtet, dass die Abtastrate von GROb4Line begrenzt ist und im Gegensatz zu einer Abtastrate von bis zu 500Hz bei SIEMENS Trace oder TNCscope, nur mit einer mittleren Abtastrate von 50 Hz ausgelesen werden kann.

Für die folgenden Versuche war diese Abtastrate aber bereits ausreichend, um Erkenntnisse zu gewinnen. Da die Hauptaufgabe der Maschinen darin besteht, die vorgegebenen Parameter möglichst genau einzuhalten und komplexe Verfahrwege zu berechnen, kann der Datentransfer abbrechen oder gedrosselt werden, um den Speicher und Prozessor der Maschine nicht zu überlasten. Dadurch entsteht die Herausforderung einen konstanten Datenstrom zu ermöglichen.

In den letzten Jahren haben immer mehr Steuerungshersteller den Druck der Maschinenbauer wahrgenommen und neue Lösungen zur besseren Datenübertragung werden stetig vorgestellt. Der Weg zur Datenextraktion ist also gerade im Bau und schon bald werden so viele Daten zur Verfügung stehen, dass man sich fragt, was man damit alles anstellen soll und wie die Daten sinnvoll verarbeitet werden können.

Qualitätskontrolle durch Datenanalyse

Die wichtigste Komponente der CNC Maschine ist die Spindel, die sich immer relativ zum Bauteil bewegen kann und zum anderen mit einer meist vorgegebenen Spindeldrehzahl rotiert. Die Bewegung der Spindel wird mittels eines Maschinencodes (NC – Code) programmiert und basiert meist auf den 3D – Modellen des zu bearbeitenden Bauteils.

Abbildung 2 – Prozess mit Eingabe- und Ausgabewerten

Diese Systemvariablen bilden zusammen mit den Systemparametern die Eingabewerte, die der Maschine vom Maschinenbediener vorgegeben werden. Als Ergebnis erhält man neben den Prozessdaten wie: Leistung und Kraft, auch noch Prozessergebnisse. Hierunter fallen Merkmale wie die Oberflächengüte, der Werkzeugverschleiß und die Maßhaltigkeit des Bauteils.

Diese Prozessergebnisse sind ausschlaggebend für die Qualität und Wirtschaftlichkeit eines produzierten Bauteils. Diese Ergebnisse sind gut erforscht und es gibt ganze Bücher darüber, welche Parameter und Variablen kombiniert werden müssen, um ein gutes und wirtschaftliches Ergebnis zu erhalten. Was bisher, meist aufgrund der fehlenden Verfügbarkeit der Daten außer Acht gelassen wurde, ist der Zusammenhang der Prozessergebnisse und der Prozessdaten. Ist dieser Zusammenhang klar, kann bereits während der Bearbeitung eine Qualitätskontrolle erfolgen und die System Variablen während der Bearbeitung angepasst werden. Ein Werkzeugverschleiß wird beispielsweise maßgebend durch die Kräfte auf das Werkzeug beeinflusst. Wirken höhere Kräfte auf ein Werkzeug, wird mehr Leistung benötigt, um die vorgegebenen Soll-Daten des NC-Programms einzuhalten und das Werkzeug verschleißt schneller oder bricht sogar. Ein Bruch dieser Werkzeuge ist eine der Hauptursachen für ungeplante Stillstände in industriellen Umgebungen. Dabei macht der Werkzeugbruch 7-20 % der gesamten Fräsmaschinenstillstandszeit aus, und die Kosten für Werkzeuge und Werkzeugwechsel machen 3-12 % der gesamten Bearbeitungskosten aus. Eine Stunde Stillstand kann gut 15.000€ kosten, wodurch skaliert auf 70 Maschinen und nur eine Stunde Stillzeit im Jahr bereits Kosten von über 1.000.000 € entstehen können. Es ist also von enormem Vorteil, die Werkzeuge so optimal wie möglich zu nutzen, ohne sie dabei zu zerstören und einen Stillstand zu provozieren.

Folgendes Beispiel zeigt unter Nutzung der vorhandenen Daten wo Optimierungspotential vorhanden ist. In einem Materialblock der Größe 110 x 70 mm wird eine Tasche inklusive zweier Bohrungen gefräst, um die Geometrie in Abbildung 4 zu erhalten.

Abbildung 4 – 3D Zeichnung des Werkstücks

Nach der Bearbeitung kann eine Qualitätsanalyse am Bauteil sowie am verwendeten Fräswerkzeug durchgeführt werden. Dabei könnte sich herausstellen, dass das Werkzeug einen Defekt aufweist. Ein Prozessoptimierer müsste jetzt mehrere
Variablen verändern, um so den Verschleiß des Werkzeugs zu verringern und den Defekt verhindern zu können. Dies kann sich als enorm aufwendig herausstellen. Während des Fräsvorgangs werden zusätzliche Prozessdaten aufgenommen, die bereits während der Bearbeitung untersucht werden können. Die Kombination der einzelnen Achswerte ermöglicht eine 3-dimensionale Darstellung im Raum, welche die im Prozess zurückgelegten Fräsbahnen darstellt (siehe Abb. 3).

Abbildung 3 – Zurückgelegter Weg mit Spindelleistung

Das Einfärben der Fräsbahnen durch die Leistung der Spindel in Watt, kann Aufschluss darüber geben, an welchen Stellen mehr Leistung für den Fräsprozess benötigt wurde. Bei Betrachtung von Abb. 3 ist zu erkennen, dass die Spindel mehr Leistung aufbringen muss, sobald das Werkzeug einen Radius fährt. Diese Information kann der Prozessoptimierer nun nutzen, um den Prozess anzupassen, indem er beispielsweise die Geschwindigkeit der Spindel in den Kurven reduziert. Noch besser wäre es natürlich, wenn die Maschine selbst schon weiß, was gerade passiert und wie sie sich selbst regeln muss, um den Verschleiß zu minimieren oder einen Werkzeugbruch zu verhindern. Wurden bereits viele Daten aufgenommen, kann maschinelles Lernen dabei helfen, einen Werkzeugbruch vorherzusagen.

Einsatz von Machine Learning für die Anomalie Erkennung

In diesem Abschnitt des Artikels wird aufgezeigt, wie mittels der Spindelleistung und LSTM (Long Short Term Memory) Modellen eine automatisierte Anomalie Detektion möglich ist.

Ein LSTM gehört zu den RNN (recurrent neural network) Netzwerken. Neuronale Netze bestehen dabei immer aus einzelnen Zellen, die den Neuronen im Gehirn nachempfunden sind. Dabei erhält ein Neuron ein Eingangssignal, kann dieses gewichten und an weitere Neuronen weiterleiten. Werden viele dieser Neuronen miteinander verknüpft, entsteht ein neuronales Netz.

RNN’s zeichnen sich dadurch aus, dass sie sowohl Daten in einem neuronalen Netz nach vorne als auch zurück, also von einem neueren Verarbeitungszustand zu einem Älteren, verarbeiten können. Das erlaubt eine Verarbeitung in Sequenzen, was diese Art der neuronalen Netze besonders effektiv für temporäre Daten oder Zeitverläufe macht. Dabei werden die Informationen in Schleifen von einem Schritt zum nächsten weitergegeben. Dies ermöglicht die Verknüpfung von vergangenen Informationen mit aktuellen, was das Netz oder das Modell dazu befähigt, einen zeitlichen Zusammenhang herzustellen. Eine besondere Art der RNN’s sind sogenannte Long Short Term Memory (LSTM) Netze. Dabei besitzt jede LSTM Zelle einen Zellzustand, der mithilfe von mehreren Funktionen (Abb. 5) verändert werden kann.

Abbildung 5 (Quelle: Hisham El-Amir and Mahmoud Hamdy. Deep Learning Pipeline. Apress, Berkeley, CA, 2020)

Je nach Funktionswert wird entschieden, ob eine Zellinformation beibehalten oder vergessen werden soll. Eine LSTM Zelle versucht unwichtige Informationen zu entfernen und wichtige Informationen hinzuzufügen. Dabei werden Informationen aus vergangenen Zeitpunkten durch Schleifen gespeichert. Damit ist der Einsatz in Zeitreihen besonders sinnvoll und kann helfen, die aktuellen Werte in einem größeren Kontext zu betrachten.

Das LSTM Modells kann nach dem Training die Spindelleistung anhand der vergangen Spindelleistung und den übrigen Maschinendaten vorhersagen. Dieser Wert wird dann mit der tatsächlich gemessenen Spindelleistung verglichen. Eine hohe Abweichung zeigt, dass bei einem normal verlaufenden Prozess eine andere Leistung zu erwarten wäre und beispielsweise ein Defekt am Werkzeug die Leistung beeinträchtigt. Vorteil dieser Methode ist, dass keine Anomalien zum Trainieren des Modells benötigt werden. Der Normalzustand einer Maschine reicht als Training aus. Dieser Ansatz bietet sich vor allem in der Produktion an, da dort Störungen (hoffentlich) sehr selten auftreten. Trainiert wurde ein Modell mit einem Layer und 256 Units.

Also 256 Neuronen in einer Ebene. Füttert man dieses Modell mit den aufgenommenen Prozessdaten wie: Vorschub, Drehzahl und der bisherigen Spindelleistung, ermöglicht das eine Vorhersage der Spindelleistung für weitere Zeitpunkte. Abb. 6 zeigt den Vergleich zwischen der vorhergesagten Leistung (blau) und der tatsächlichen Leistung (rot). In schwarz bzw. grau ist der Vorhersagefehler dargestellt. Dieser Prozess wurde ohne Schäden am Werkzeug und einem geringen Verschleiß beendet.

Abbildung 6 – Verlauf der Vorhergesagten und tatsächlichen Spindelleistung bei einem Prozess ohne Anomalien

In Abb. 7 ist ein Prozess dargestellt, bei dem während der Bearbeitung eine Beschädigung am verwendeten Werkzeug auftrat. Durch das beschädigte Werkzeug wurde die Bauteilqualität beeinträchtigt. Der Prozess wurde nicht beendet, da das Werkzeug nach 4500 Sekunden gebrochen ist. Hierbei ist eine deutliche Abweichung der tatsächlichen Spindelleistung von der vorhergesagten Leistung zu erkennen.

Legt man einen Schwellwert fest, den der Fehler nur x-mal überschreiten darf, kann eine Anomalie Erkennung implementiert werden. Die gelbe Linie zeigt die Aktivierung der Anomalie Erkennung. Die Anomalie wurde bereits beim Entstehen erkannt und die Maschine hätte gestoppt werden können, um das Werkzeug auszuwechseln und somit den Bruch und damit einen längeren Stillstand zu verhindern.

Abbildung 7- Verlauf der Vorhergesagten und der tatsächlichen Spindelleistung bei einem Prozess mit einer Anomalie

Die Beispiele zeigen klar, welches Potenzial in den Daten stecken und es sowohl dem Maschinenbediener ermöglicht, den Prozess genauer zu überwachen und zielgerichtetere Optimierungen umzusetzen als auch die Maschinen selbst befähigt sich selbst zu überwachen und zu optimieren. Bisher haben wir gesehen was mit den Daten möglich ist, die bereits ohne zusätzliche Investition bereitgestellt werden können. Doch wie hoch ist das Potenzial, wenn man noch genauere, genau auf die Prozessüberwachung zugeschnittenen Sensorik mit den vorhandenen Daten verknüpft?

Das Potential weiterer Sensordaten

Die Spindelleistung ist ein Signal, in dem viele Effekte zum Vorschein kommen können, eine Klassifizierung anhand der Spindelleistung allein um was für eine Art Anomalie es sich handelt ist aber oft schwer. Auch die Auflösung der Daten ist oft noch zu gering und Priorisierung des Datenexport noch zu niedrig, denn umso besser und genauer die Prozessdaten werden, umso besser können auch weitere Anomalien erkannt und sogar klassifiziert werden. Im zweiten Teil, dieser zweiteiligen Blogartikel-Reihe wird gezeigt, wie durch zusätzliche Sensorik in der Maschine ein Werkzeugzustand genau klassifiziert werden kann. Dafür werden hochauflösende Körperschalldaten aufgenommen und Bilder umgewandelt und mithilfe eines weiteren Neuronalen Netzes (CNN), das in der Bilderkennung eingesetzt wird, ausgewertet und Informationen über den Zustand einzelner Schneiden am Werkzeug gibt.

Sind Fragen offengeblieben? Kontaktieren Sie uns gerne über den AT Chatbot?

Wir bedanken uns bei allen beteiligten Projektpartnern so wie dem Förderer des Projektes!

Autor:innen

Luca Maria Trautmann

Luca Trautmann ist Data Scientist bei [at]. Durch das Studium im Fachbereich Statistik und die tägliche Arbeit als Data Scientist hat Luca über die Jahre eine große Begeisterung für Daten und deren Analyse entwickelt. Eine Vielfalt an Kundenprojekten in unterschiedlichen Branchen bietet eine kontinuierliche Vergrößerung des Wissensschatzes und lässt im Arbeitsalltag nie Langeweile aufkommen.

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert