Blog per Mail folgen

Damit Sie nie wieder Blog Posts von uns versäumen!

Big Data verleiht der Prozessoptimierung eine neue Qualität

Analytics_138646937.png 

Wo Erfahrung und die konventionelle Nutzung von Daten aus der Prozess- und Fertigungssteuerung nicht weiterhelfen, können Prozessverbesserungen nun auf Basis moderner Tools erfolgen. Methoden der Business Intelligence und der Big Data Analytics werden zunehmend auch mittelständischen Unternehmen zugänglich.

„Wir wollen unsere Prozesse optimieren“ – das hört ein Dienstleister gerne von seinem Kunden. Doch was will der nun genau? Die Erfahrung lehrt, dass sich hinter diesem scheinbar einfachen Auftrag ganz verschiedene Themen verbergen können. Die häufigsten sind:

  • Qualität steigern;
  • Engpässe („Bottlenecks“) beseitigen;
  • Ausschuss reduzieren;
  • Kosten senken;
  • Energie und/oder Rohstoffe einsparen;
  • Ursachen für wiederholt auftretende Fehler erkennen und beseitigen;
  • die Einflussfaktoren eines Prozesses bestimmen und ihre Gewichtung verstehen.

Trotz des eigenen Prozess-Know- hows und ihrer Erfahrung kommen Kunden immer wieder an einen Punkt, an dem es nicht mehr genügt, Ist- und Soll-Werte der Anlage zu vergleichen, um das Problem lösen zu können. Dann schlägt die Stunde der datenbasierenden Analysemodelle. Hierbei werden die erfassten Prozess-, Produkteigenschafts- und sonstigen relevanten Daten genutzt, um zu neuen Erkenntnissen zu kommen. Was früher einmal mit Business Intelligence begann, wird angesichts der immer breiteren Datenbasis inzwischen mit Big-Data- Methoden abgedeckt. Bei Big Data Analytics geht es nicht (nur) um die schiere Masse der Daten, sondern darum, dass mehr Datenquellen mit unterschiedlichen Formaten angefasst und analysiert werden können.

Für kleinere und mittlere Unternehmen ist es in der Regel ökonomisch nicht zu leisten, eigenes Know-how in Big Data Analytics aufzubauen. Insbesondere Datenanalysten mit ausgewiesenem Prozess-Know- how sind sehr begehrt, aber auf dem Arbeitsmarkt kaum zu finden. Den Ausweg liefern externe Dienstleister wie die acs ag, die mittelständischen und grossen Unternehmen einen Zugang zur datenbasierenden Prozessoptimierung bieten, wie sie sonst nur von Konzernen zu leisten ist.

Fast Prototyping

Unsere Experten von acs setzen auf ein stufenweises Vorgehen, um sich der Lösung anzunähern. Der erste Schritt ist die Klärung der Problemstellung im Gespräch mit den Kunden, um sein Ziel genau zu verstehen. Im zweiten Schritt erfolgt eine Annäherung an das Problem mittels Schnellanalyse auf Basis der vorhandenen Daten. Dazu wird ein einfaches Prozessmodell im Sinne eines „Fast Prototyping“ entwickelt, das anschaulich macht, welche Erkenntnisse die Datenbasis hergibt. Dies lässt sich in drei bis vier Wochen mit einer geringen Zahl an Personentagen realisieren.

„Im Pilot konzentrieren wir uns auf einige wenige Einflussfaktoren und die einfacheren Zusammenhänge“, erläutert Dr. Burghardt Schmidt, Senior Consultant der acs ag. So werde der Kunde schnell von der Methodik überzeugt – auch auf der wirtschaftlichen Seite: „Die Kosten für das Pilotprojekt sind spätestens nach einem Quartal amortisiert“, so Dr. Burghardt Schmidt. Dann geht es darum, die nächsten Schritte und Ziele zu planen. Dabei kommt es auch darauf an, in welchem Reifestadium der Kunde sich befindet. „Manche sind schon in den ersten Projekten. Andere stehen erst noch vor dem Einstieg, spüren aber bereits den Druck vom Wettbewerb, der schon weiter ist,“ so der acs-Consultant.

Einstieg in Industrie 4.0

Auf der nächsten Stufe geht es darum, mit Hilfe zusätzlicher Daten, die der Kunde möglicherweise noch nicht hat, das Analyse- und Vorhersagemodell zu verfeinern. Da die weitere Prozessoptimierung in der Regel auf Predictive-Analytics- Methoden basiert, die als Teil von Industrie 4.0 gelten, ermitteln wir in diesem Schritt gemeinsam mit unseren Kunden einen Industrie-4.0- Readiness-Status. Dieser zeigt detailliert auf, welche zusätzlichen Datenpunkte benötigt werden, um ein Industrie-4.0- Projekt starten zu können. Auch bei der Gewinnung zusätzlicher Daten unterstützen wir unsere Auftraggeber mit Analyse-Experten.

Dabei geht es nicht immer zwingend darum, zusätzliche Messstellen einzurichten. In dieser Phase des Projektes reichen möglicherweise schon schriftliche Notizen zum Prozessverlauf aus, die systematisch ausgewertet werden. Oder es werden Wetterdaten benötigt, die sich im Internet finden lassen. Mit den zusätzlich verfügbaren Werten erfolgt dann eine Offline-Analyse, die bereits erste Ziele umsetzt.

Am Ende steht die Online-Integration, bei der die aktuellen Maschinen- und Prozessdaten verarbeitet werden und die gewonnenen Informationen auf deren Systemen visualisiert zu sehen sind. In einem möglichen weiteren Optimierungsschritt bekommen die Bediener auch Warnungen und Hilfestellungen eingespielt. Wie ein Assistenzsystem gibt die installierte Lösung dann konkrete Vorschläge, wie der Prozess nachgesteuert werden sollte, um die gewünschten Ziele zu erreichen.

Daten-Integrität

Im Bereich der Prozess-Industrie, auf dem unser Fokus liegt, sind meist Prozessleitsysteme anzutreffen, so dass grundsätzlich eine breite Ausgangsbasis für die Datenanalyse gegeben ist. Ein Manufacturing Execution System (MES), das Daten zentral sammelt und in einer einheitlichen Struktur ablegt, ist dagegen schon seltener zu finden. Allerdings gibt es viele Hersteller, die eine MES-Implementierung erwägen oder bereits vorbereiten. Die Prozessoptimierung ist aber unabhängig davon möglich. Entscheidend ist neben der Datenverfügbarkeit auch die Daten-Integrität: Konsistenz und Vollständigkeit bestimmen, wie „sauber“ die Datenbasis ist. Auch die Frage, ob die Daten bestimmten regulatorischen Bestimmungen genügen, muss in diesem Zusammenhang geprüft werden. acs ist wegen seiner langjährigen Automationserfahrung mit diesen Thematiken bestens vertraut.

Vertrauen in die Daten

Ein weiterer entscheidender Punkt ist für Dr. Burghardt Schmidt: „Die Geschäftsleitung, die leitenden Angestellten und die operativ tätigen Mitarbeiter in der Produktion müssen das Projekt mittragen. Das heisst, sie müssen Vertrauen haben in die Daten und gewonnenen Informationen, sie müssen sich gewiss sein, dass sie bessere Entscheidungen mit Hilfe der Datenanalyse treffen können. Nur dann kann das Projekt am Ende erfolgreich sein!“

Gerade beim Nachsteuern des Prozesses aufgrund von Warnungen, die auf einer Vorhersage beruhen, muss dieses Vertrauen gegeben sein, um dann auch die vorgeschlagenen Massnahmen einzuleiten. In der Pharma-Industrie ist dies sogar eine Forderung der amerikanischen Aufsichtsbehörde FDA (Food and Drug Association): Dass die Unternehmen gezielt die Qualität des Endproduktes schon während der laufenden Produktion in Griff behalten.

Statt dass nach jedem Prozessschritt die Produkte analysiert werden und es entschieden werden muss, ob die Qualität innerhalb der Spezifikation liegt oder diese zum Ausschuss gehören, erkennt das datengetriebene Modell die kritischen Parameter und extrapoliert daraus die Qualität des Endproduktes. „Predictive Analytics“ schreibt allerdings nicht einfach Trends linear fort, sondern berücksichtigt auch komplexere Zusammenhänge in seinen Vorhersagen. Die dadurch verbesserte Kontrolle des laufenden Fertigungsprozesses führt beispielsweise zu einer geringeren Schwankungsbreite in Bezug auf die Qualität und trägt dazu bei, die Ausschuss-Quote zu reduzieren.

Fazit Prozessoptimierung

Bei der Optimierung industrieller Prozesse steht inzwischen eine breite Palette von Methoden und Software-Tools für die datenbasierende Prozessanalyse zur Verfügung. Daneben ist beim Thema Big Data ein entscheidender Faktor immer noch der Mensch, genauer: der Datenanalyst, der sowohl Datengewinnung, -management und -auswertung beherrscht, als auch das Basis-Know- how um die Fertigungsprozesse des Kunden mitbringt. Er muss in enger Zusammenarbeit mit dem Kunden den Daten einen Sinn geben, um ein realistisches Modell der Produktion gestalten zu können, das dann anhand der Offline- und später der Live-Daten auch realitätsnahe Vorhersagen über den Fertigungsprozess treffen kann. 

Big Data Analytics