Im ersten Teil unserer Blogreihe haben wir Dir sowohl die Definition als auch die Herausforderungen und Use Cases von Predictive Maintenance nähergebracht. Nun zeigen wir Dir, warum eine sorgfältige Datenaufbereitung entscheidend für die Qualität und Genauigkeit von Vorhersagen ist. Insbesondere bei Predictive Maintenance-Daten gibt es spezifische Anforderungen, die berücksichtigt werden müssen. Du erhältst in diesem Blogbeitrag einen umfassenden Einblick in verschiedene Methoden zur Verarbeitung Deiner Rohdaten sowie effektive Datenanalyse-Techniken, mit denen Du den Wartungsbedarf präzise vorhersagen kannst. Zudem beleuchten wir Tools, die sich sowohl zur Bereinigung und Verarbeitung der Daten als auch zur Modellbildung eignen.

So startest Du optimal mit Deinen Daten

Die Datenaufbereitung ist entscheidend für präzise Predictive Maintenance-Modelle, da die Datenqualität und -konsistenz die Vorhersagegenauigkeit direkt beeinflussen. Wir geben Dir daher eine strukturierte Darstellung der wesentlichen Schritte der Datenaufbereitung. Für eine ausführliche Beschreibung der einzelnen Phasen im Datenaufbereitungsprozess für Maschinelles Lernen kannst Du unser Whitepaper einsehen, das detaillierte Leitlinien und Best Practices enthält.

Blog-Data-Predictive-Maintenance-Prozess-DatenaufbereitungProzess der Datenaufbereitung

Explorative Datenanalyse (EDA)

Zu Beginn des Datenaufbereitungsprozesses ist eine gezielte explorative Datenanalyse (EDA) elementar, um ein umfassendes Datenverständnis zu gewinnen, Muster zu erkennen und Korrelationen zwischen Merkmalen aufzudecken. Hierbei sind verschiedene Visualisierungen und Berechnungen der Daten sinnvoll wie beispielsweise der Median oder die Varianz. In diesem Schritt zeigt sich meist, dass die Predictive Maintenance-Daten unausgeglichen sind, da Fehlerfälle – also dokumentierte Ausfälle oder Störungen – deutlich seltener auftreten als Normalfälle. Dies muss bei der Bildung des Modells beachtet werden. Des Weiteren wird in der EDA auch die Qualität der Daten sichtbar, welche im Schritt der Datenvorverarbeitung bereinigt bzw. optimiert werden muss.

Für weitere Informationen zeigen wir Dir praxisnah in unserem kostenlosen Webinar, wie Du mithilfe explorativer Datenanalysen wertvolle Erkenntnisse gewinnst und Deine Daten als strategische Ressource einsetzt. 

Vorverarbeitung der Daten

Bei der explorativen Datenanalyse werden häufig fehlende Werte oder Duplikate in den Daten entdeckt, die meist durch seltene Ereignisse bei der Erfassung von Maschinendaten entstehen. Diese müssen im Rahmen der Datenvorverarbeitung behoben werden. Eine weitere Besonderheit von Predictive Maintenance-Daten ist, dass diese im Normalfall in Form von Zeitreihen vorliegen. Daher sind spezielle Techniken für die zeitliche Sequenzierung und Aggregation notwendig. Eine bewährte Methode ist die Glättung der Zeitreihe durch einen gleitenden Durchschnitt. So lassen sich kurzfristige Schwankungen reduzieren, während langfristige Trends, Saisonalitäten und eventuelles Rauschen in den Daten besser erkennbar werden.

Ein weiterer Teil der Datenvorverarbeitung ist die Normalisierung und Skalierung. Um die Echtzeitfähigkeit der Daten zu gewährleisten und eine direkte und reibungslose Einbindung in produktive Vorhersagesysteme zu ermöglichen, ist die Normalisierung und Skalierung der Daten besonders wichtig. Welche Schritte dabei notwendig sind, hängt von der Beschaffenheit der Daten und dem gewählten Vorhersagemodell ab. Man könnte beispielsweise eine Skalierung durchführen mit den Daten einer Fertigungsmaschine, die mit Sensoren zur Messung von Temperatur, Druck und Vibration ausgestattet ist. Nehmen wir hierbei an, dass die Temperaturwerte zwischen 20 und 100 Grad Celsius liegen, während die Vibrationswerte zwischen 0 und 5 g (1 g entspricht 9,81 m/s²) schwanken. Um diese unterschiedlichen Skalen zu vereinheitlichen und sicherzustellen, dass alle Merkmale gleichwertig behandelt werden, kann eine Min-Max-Skalierung angewendet werden. Dabei werden die Werte so transformiert, dass sie in einem einheitlichen Bereich von 0 bis 1 liegen. 

Feature Engineering

Ein weiterer wichtiger Schritt bei der Aufbereitung der Daten ist das Feature Engineering. Dabei werden relevante Merkmale (Features) aus Rohdaten erstellt, um die Leistung eines Machine Learning-Modells zu verbessern. Somit werden bestehende Daten transformiert, neue Features generiert oder irrelevante Merkmale entfernt. Ein effektives Feature Engineering ist unerlässlich, um spezifische Muster und Trends in den Daten besser zu erfassen, die für die Vorhersage von Ausfällen oder den Zustand von Maschinen entscheidend sind. Bei Predictive Maintenance-Daten werden dabei meist zeitbasierte Features erstellt, da die Daten in Form von Zeitreihen vorliegen und somit häufig wertvolle zeitliche Muster und Trends enthalten. Neben der Berechnung von Trends über die letzte Stunde, den letzten Tag oder die letzte Woche können auch saisonale Features wie die Tageszeit, der Wochentag oder die Jahreszeit erstellt werden. Besonders interessant könnte auch die Dauer seit dem letzten Ausfall oder der letzten Wartung sein. Des Weiteren bieten sich klassische statistische Features an, in welchen möglicherweise gewisse Frequenzmuster besser sichtbar werden als in den Rohdaten. Beispielsweise könnte man den Mittelwert, den Median, die Standardabweichung und die Varianz der Sensorwerte bilden. Auch die Identifikation von Extremwerten durch Minima- und Maxima-Berechnungen kann Aufschluss über zukünftige Fehler geben. Zusätzlich kann es sinnvoll sein, bestimmte Features zu kombinieren wie z. B. das Verhältnis von Temperatur zu Vibration, wenn hohe Temperaturen mit höheren Vibrationen korrelieren.

Prädiktive Analysemethoden zur Wartungsprognose

Ist die Vorverarbeitung der Daten abgeschlossen und liegt ein grundlegendes Verständnis über die Daten vor, kann ein Modell zur Vorhersage des Wartungsbedarfes ausgewählt werden. Wir möchten Dir im Folgenden einen strukturierten Überblick über verschiedene Modelle zur Vorhersageberechnung geben. Wie Du das passende Modell für Deinen Anwendungsfall findest und welche Schritte anschließend folgen, erläutern wir ausführlich im nächsten Blogbeitrag der Reihe. Bei Predictive Maintenance-Daten hat man die Möglichkeiten zwischen statistischen Methoden, traditionellen Machine Learning-Methoden und neuronalen Netzen zu wählen.

Blog-Data-Predictive-Maintenance-ModellübersichtModellübersicht zur Vorhersageberechnung

  • Statistische Methoden: Statistische Methoden basieren auf klar definierten Annahmen über die Datenstruktur und zeichnen sich durch ihre Interpretierbarkeit aus. Sie eignen sich gut für Zeitreihendaten mit saisonalen oder trendbasierten Mustern und sind besonders nützlich, wenn Verständlichkeit und Effizienz bei moderaten Datenmengen im Vordergrund stehen. Da sie jedoch oft lineare Zusammenhänge voraussetzen, stoßen sie bei komplexen, nicht linearen Mustern oder sehr großen und unregelmäßigen Datensätzen an ihre Grenzen.

  • Machine Learning (ML): Maschinelle Lernverfahren sind flexibler als statistische Methoden und können auch komplexe, nicht lineare Muster erkennen, ohne strikte Annahmen über die Datenstruktur zu benötigen. Sie eignen sich besonders für Anwendungen mit vielen Merkmalen und komplexen Abhängigkeiten, verlangen jedoch oft umfangreicheres Feature Engineering, um Zeitreihendaten richtig zu verarbeiten. Während sie eine hohe Genauigkeit erreichen können, neigen sie bei stark zeitabhängigen Mustern oder großen Datenmengen zu Overfitting – also einer Überanpassung an Trainingsdaten, welche zu einer schlechteren Vorhersage führt – und sind in solchen Fällen eingeschränkt.

  • Neuronale Netze (NN): Als spezialisierter Teilbereich des Maschinellen Lernens sind neuronale Netze besonders stark in der Erkennung komplexer, nicht linearer Muster in großen Datensätzen. Sie sind für zeitabhängige oder sequenzielle Daten optimiert und benötigen weniger manuelles Feature Engineering, da sie relevante Muster direkt aus den Rohdaten lernen. Sie bieten hohe Flexibilität und Genauigkeit, sind jedoch rechenintensiver, erfordern lange Trainingszeiten und sind oft schwerer zu interpretieren. Für kleine Datensätze oder einfachere Aufgaben sind sie weniger geeignet. Sie bieten allerdings meist die besten Ergebnisse bei anspruchsvollen Vorhersagen und Anomalie Erkennungen.

Für die Datenverarbeitung und Modellbildung bietet ein Python-Stack eine Vielzahl leistungsstarker Bibliotheken. Die Wahl des passenden Tools hängt dabei stets von den spezifischen Anforderungen und der Modellkomplexität ab. Die folgende Grafik gibt Dir einen Überblick darüber, welche Tools sich für welche Anwendungsfälle am besten eignen.

Blog-Data-Predictive-Maintenance-Tool-Übersicht-DatenverarbeitungTool-Übersicht für Datenverarbeitung und Modellbildung

Fazit

Das Datenverständnis, die Aufbereitung der Daten und das Feature Engineering sind demnach fundamental für die Erzielung von aussagekräftigen Predictive Maintenance-Ergebnissen. Sobald Du das nötige Verständnis für die Beschaffenheit der Daten hast und eine klare Zielvorstellung vorliegt, kannst Du mit der Auswahl der passenden Methode beginnen.

Im folgenden und letzten Beitrag der Reihe werden wir Dir die Auswahl der Methode, das Trainieren des Modells sowie die Evaluation der Ergebnisse und die Implementierung im Betrieb näherbringen.

Du möchtest das volle Potenzial Deiner Daten ausschöpfen?

Lass Dich von unseren Data Experten beraten und entdecke, wie Du durch eine strukturierte Datenaufbereitung wertvolle Erkenntnisse gewinnst. Mit der richtigen Datenbasis legst Du den Grundstein für präzise Analysen und leistungsfähige KI-Modelle. Entdecke jetzt unser vollständiges Data Analytics Portfolio. Wir unterstützen Dich gerne dabei, Deine Datenprozesse zu optimieren!

KONTAKT AUFNEHMEN

MID Blog Newsletter abonnieren

Mehr lesen

Popup Image
stagNames-> |||
counterPost-> [1, 2, 3]
Zurück zum Blog