Blog per Mail folgen

Damit Sie nie wieder Blog Posts von uns versäumen!

Batch-Analyse – der rechte Pfad zu optimierten Prozessen

PO_136775084.png

Wenn in verschiedenen Produktionsdurchläufen Endprodukte entstehen, die sich in der Qualität stark unterscheiden, dann sollte sich diese Abweichung auch in den Daten des Prozessverlaufs widerspiegeln. Den optimalen Verlauf zu finden und den auch noch mittels geeigneter Sollwerte zu beschreiben, ist eine Herausforderung, die in den Bereich der Big-Data- Analyse hineinreicht.

Ein Prozess, der zur Herstellung von abgegrenzten Stoffmengen führt, indem Mengen von Einsatzstoffen unter Nutzung einer oder mehrerer Einrichtungen innerhalb eines abgegrenzten Zeitraums einer geordneten Folge von Prozessaktivitäten unterzogen werden, heisst Chargen- oder Batch Prozess.

Dementsprechend spricht man beim Vergleich unterschiedlicher diskontinuierlicher Produktionsdurchgänge (Batches) von einer Batch-Analyse. Das Ziel der datentechnischen Batch-Analyse liegt in der Optimierung des Produktionsprozesses. Konkret kann das bedeuten:

  • Qualität steigern;
  • Die Ausbeute erhöhen bzw. den Ausschuss reduzieren;
  • Kosten senken;
  • Energie und/oder Rohstoffe einsparen;
  • Ursachen für wiederholt auftretende Fehler erkennen und beseitigen;
  • die Einflussfaktoren eines Prozesses bestimmen und ihre Gewichtung verstehen.

Bei der Batch-Analyse werden mehrere Parameter in Beziehung gesetzt, um der Frage nachzugehen, ob es eine Korrelation gibt, die sich positiv oder negativ auf den Prozessverlauf auswirkt. Eine mögliche Fragestellung könnte für einen Hersteller im Bereich Prozessindustrie beispielsweise lauten: Hat das Verhältnis von Temperatur zu Druck über die Zeit betrachtet einen Einfluss auf die Qualität des Endproduktes?

Das Problem: Jeder Batch unterscheidet sich von den anderen, da beispielsweise Ausgangsmaterialien Schwankungen aufweisen können. Dadurch kann sich die Produktionszeit verlängern, und das womöglich nicht gleichmässig, sondern in einer Produktionsphase mehr, in einer anderen Produktionsphase weniger. Daher sind die Verläufe der Produktionsprozesse nicht direkt vergleichbar, zumindest macht es keinen Sinn, die Temperaturverläufe der beiden Batches übereinanderzulegen. Auch eine Normierung der Kurven kann dieses Problem nicht lösen.

Um solche komplexen Aufgabenstellungen zu bewältigen, empfiehlt sich der Einsatz eines externen Dienstleisters, der mit Big-Data- Analytics-Methoden vertraut ist. Die acs ag, mit der Zentrale in der Schweiz und Niederlassungen in Deutschland und Österreich, bietet mittelständischen und grossen Unternehmen einen Zugang zur datenbasierenden Prozessoptimierung, wie sie sonst nur von Konzernen zu leisten ist.

Visuelle Prozess-Analyse

In einem unserer Projekte lautete die Arbeitshypothese: Wenn in der Anfangsphase des Produktionsprozesses die Temperatur zu schnell ansteigt, sinkt die Qualität des Endproduktes. Die Frage war, wie die These bestätigt oder falsifiziert werden kann, und wie das Bedienpersonal im Falle der Bestätigung instruiert werden muss, um den Prozess möglichst nahe am Optimum zu halten.

Solche Zusammenhänge zu finden ist die Aufgabe der Batch-Analyse: Welche Eigenschaften („Features“) kann man guter oder schlechter Qualität zuordnen? Unser Big-Data-Experte entschied sich bei diesem Fall im ersten Schritt für eine visuelle Methode, den Score Plot:

2_Batch-Analyse - Score Plot

 

Hier sind drei Batches abgebildet (farblich unterschieden: rot, blau und grün), die unterschiedliche Verläufe genommen haben. Die X-Achse wird von der Temperatur bestimmt, die Y-Achse vom Druck. Jede Minute wird ein Punkt eingetragen („Plot“), dessen Koordinaten sich aus der gemessenen Temperatur und Druck ergeben („Score“). Im Laufe des Prozesses können auf gleichen Temperatur-Leveln unterschiedliche Drücke auftreten, umgekehrt kann der gleiche Druck bei unterschiedlichen Temperaturen auftreten. Daher verteilen sich die Markierungspunkte nicht linear, sondern eher kreisförmig. Anfang und Ende der Batches sind sehr nahe beieinander. Aufgrund der Notationsweise ist es unerheblich, wie lange der Batch dauert, die Punkteverteilungen sind trotzdem vergleichbar – nur die Zahl der Punkte unterschiedet sich.

Hier sieht man, dass die blaue und die grüne Verlaufskurve relativ nah beieinander liegen, die rote dagegen phasenweise deutlich abweicht. Stellt sich nun heraus, dass die Endergebnisse der beiden ähnlichen Batches gut ist, beim rot markierten Batch dagegen schlechter, dann hat man einen deutlichen Hinweis darauf, dass die Korrelation von Temperatur und Druck im Prozessverlauf starken Einfluss nimmt auf die Qualität des Endproduktes. In diesem Fall müsste also das Bedienerpersonal dahingehend instruiert werden, dass der Prozessverlauf auf die optimalere Bahn geführt wird, indem Temperatur und Druck entsprechend nachgesteuert werden.

Komplexe Big-Data auf wenige Dimensionen reduzieren

Wie Stefan Pauli, Senior Data Analyst bei acs, erläutert, ist bei dieser Art der Analyse der Erfolg nicht von vornherein gesichert: „Man hofft natürlich, dass sich die Verläufe von guten und schlechten Batches optisch unterscheiden. Ist das der Fall, dann hat man einen relevanten Einfluss gefunden, und das Band der guten Verläufe kann als Richtschnur für die Prozesssteuerung dienen. Unterscheiden sich die Kurven dagegen nicht, dann hat die gewählte Korrelation offensichtlich keinen Einfluss auf das Endergebnis und man muss einen anderen Zusammenhang suchen – dann fängt die Arbeit erst richtig an!“

In diesem Fall greift der Datenanalyst auf die „Principal Component Analysis“ (PCA) zurück, die viele Messungen miteinander verrechnet und auf zwei bis drei Dimensionen reduziert. Diese werden dann in einen Score Plot mit zwei oder drei Achsen aufgetragen. „Wenn Sie mit drei Dimensionen arbeiten, diese dann aber auf Papier in zwei Dimensionen reduzieren, dann ist das genauso, wie wenn Sie ein Foto machen: Sie müssen den richtigen Standort beziehungsweise den richtigen Winkel finden, damit dann alle relevanten Details im Ausdruck sichtbar sind“, so Stefan Pauli. Auch dieses leistet die PCA.

Wenn sich durch dieses Verfahren Unterschiede zwischen guten und schlechten Batches finden lassen, dann kann der Datenexperte darangehen, die Zahl der verwendeten Variablen wieder zu reduzieren, um die relevanten Einflussgrössen zu identifizieren.

Falls sich dagegen erneut kein Zusammenhang ergibt, müssen weitere Faktoren gefunden werden, die sich auf das Endergebnis auswirken könnten, bislang aber nicht in die Betrachtung einbezogen wurden. Ein Daten-Analyst mit entsprechendem Prozesswissen weiss aber, welche Parameter unbedingt berücksichtigt werden müssen. „Wenn dies immer noch nicht reicht, um die gesuchten Korrelationen zu finden, oder wenn der Kunde Optimierungen wünscht, die über das erreichte Niveau hinausgehen, dann bleiben immer noch Machine-Learning- Methoden. Damit lassen sich auch Korrelationen finden, die auf anderen Wegen nicht zu entdecken sind“, so die Erfahrung von Stefan Pauli.

Von der Prozess-Analyse zur optimierten Prozess-Steuerung

Grundsätzlich beginnt die Analyse-Arbeit mit historischen Daten, die der Datenanalyst wie beschrieben auf Korrelationen zwischen Prozessfaktoren und der gewünschten Zielgrösse – beispielsweise die Qualität des Endproduktes oder niedrigem Energieverbrauch – untersucht.

Stellt sich heraus, dass zusätzliche Einflussfaktoren mit einbezogen werden müssen, die bislang nicht gemessen wurden, etwa die Luftfeuchtigkeit, dann muss die Datenbasis erweitert werden. Entweder werden fehlende Daten aus anderen Quellen ergänzt, oder es werden zusätzliche Datenpunkte eingerichtet und daraufhin eine neue Datensammlung für die Batch-Analyse erzeugt.

Hat der Datenanalyst bei seiner Suche Erfolg, dann entwickelt er daraus ein realistisches Modell, wie die Prozesssteuerung aussehen muss, um die gewünschten Effekte zu erzielen. Dazu trägt auf der einen Seite die Entwicklung geeigneter Algorithmen bei. Zum anderen muss er auch dafür sorgen, dass aus den gewonnenen Erkenntnissen geeignete Prozessveränderungen inklusive zugehöriger Visualisierungen und Warnungen entstehen, die in die Leitstände und Bediensysteme der Kunden integriert werden.

Fazit Batch-Analyse

Big Data eröffnet unterschiedliche Möglichkeiten zur Optimierung industrieller Prozesse. Neben Fähigkeiten in Datengewinnung, -management und -auswertung gehört auch grundlegendes Know-how um die Fertigungsprozesse des Kunden zum Handwerkszeug eines erfahrenen Daten-Analysten. Nur so kann er aus den gegebenen Alternativen die richtige Methode auswählen und umsetzen. Batch-Analyse und Principal Component Analysis bieten insbesondere in der Prozesstechnik einen interessanten Ansatz, der für Bediener im wahrsten Sinne des Wortes augenfällig macht, wie man den Prozess „im guten Band“ hält oder den Bedienern zumindest Empfehlungen zu einer optimaleren Prozesssteuerung liefert, damit sich das gewünschte Ergebnis einstellt.

 Big Data Analytics