In den ersten beiden Beiträgen unserer Blogreihe zu Predictive Maintenance haben wir die Grundlagen, Herausforderungen und Anwendungsfälle sowie die entscheidenden Schritte zur Aufbereitung und Analyse von Daten behandelt. Mit diesem Wissen im Hintergrund widmen wir uns nun einem der zentralsten Ansätze von Predictive Maintenance: der Vorhersage und Vermeidung von maschinellen Ausfällen. In diesem Blogbeitrag zeigen wir Dir die wichtigsten Schritte zur Auswahl des Modells, zum Training sowie zur Produktivsetzung von Predictive Maintenance-Lösungen.

Herausforderungen und Strategien beim Modelltraining

Industrielle Anlagen laufen in der Regel über lange Zeiträume stabil und ohne Zwischenfälle. Seltene Abweichungen vom Normalverhalten lassen sich daher als Anomalien einordnen. Bei der Anomalieerkennung ist das Ziel des Trainings, dass die Sensoren Muster so erlernen, dass neue, abweichende Datenpunkte als Ausreißer identifiziert werden können. Liegen ausreichend gelabelte historische Daten vor, können diese nach einer umfassenden Datenaufbereitung standardmäßig in Trainings-, Test- und Validierungsdatensätze aufgeteilt werden. Während herkömmliche Machine Learning-Modelle den gesamten Datensatz einbeziehen, erzielen innovative Algorithmen wie der Variational Autoencoder (VAE) sehr gute Ergebnisse, indem nur Daten aus fehlerfreien Zuständen zum Erlernen der Muster genutzt werden. Der VAE ist eine Form eines neuronalen Netzwerks und berechnet für einen gegebenen Datenpunkt eine Wahrscheinlichkeit bzw. einen Anomalie-Score, der angibt, wie gut dieser Datenpunkt zu den in den Trainingsdaten gelernten normalen Mustern passt. Ist diese Wahrscheinlichkeit zu niedrig, weicht der Datenpunkt zu stark von den gelernten Strukturen ab und weist damit auf einen Fehler oder eine Anomalie hin.

Modelle wie der VAE kommen ohne Fehlerdaten aus – ein Vorteil, da diese in vielen Anwendungen nur begrenzt vorhanden sind. Genau dieser Mangel an Fehlerdaten führt jedoch oft zu unausgewogenen Datensätzen und ist ein zentrales Problem bei Predictive Maintenance. Mit der folgenden Tabelle erhältst Du eine Übersicht über verschiedene Strategien, die Dir dabei helfen, die Datenungleichgewichte zu kompensieren.

Blog-Data-Predictive-Maintenance-Teil-3-Techniken-1Übersicht an Techniken zur Behandlung unausgeglichener Datensätze

Um seltene Fehlermuster gezielt zu erkennen und abzubilden, stehen Dir verschiedene Methoden zur Verfügung. Techniken wie Unterabtastung oder SMOTE helfen dabei, ein ausgewogeneres Verhältnis zwischen den Klassen im Datensatz herzustellen. Auch alternative Ansätze wie die Verwendung von generativer KI wie GANs oder LLMs ermöglichen es, zusätzliche Datenpunkte für Defekte zu erzeugen. Wichtig ist: Es gibt keine Universallösung. Teste verschiedene Ansätze, um die passende Methode für Deinen Anwendungsfall zu finden.

So findest Du das passende Modell

Bei Predictive Maintenance lässt sich nicht pauschal festlegen, welcher Algorithmus am besten geeignet ist. Wie in den meisten Fällen des maschinellen Lernens (ML) hängt die Wahl eines geeigneten Modells stark von den Eigenschaften der verfügbaren Daten und den konkreten Anforderungen des Use Cases ab. Grundlegende Methoden zur Datenaufbereitung haben wir bereits im zweiten Teil dieser Blogreihe beleuchtet. Im nächsten Schritt werden unterschiedliche Modelle getestet, bewertet und gezielt miteinander verglichen. Dieser iterative Prozess lässt sich durch Tools wie MLflow unterstützen. Die Open-Source-Plattform dokumentiert die Experimente systematisch – inklusive Parameter, Modellversionen und Ergebnissen – und sorgt so für mehr Transparenz und Nachvollziehbarkeit im gesamten Entwicklungsprozess.

Als Modellbewertungsmetriken für Predictive Maintenance werden häufig der F1-Score und Precision-Recall-Kurven verwendet, da sie besonders gut für unausgewogene Datensätze geeignet sind. Sie helfen dabei, zwei zentrale Aspekte eines Modells ins Verhältnis zu setzen. Je nach Anwendungsfall kann die Gewichtung variieren. In manchen Use Cases steht etwa im Vordergrund, möglichst alle potenziellen Ausfälle frühzeitig zu erkennen. Dabei kann es jedoch vermehrt zu falsch-positiven Vorhersagen kommen und damit zu unnötigen Wartungen oder Bauteilwechseln. Ist der Austausch mit hohen Kosten oder erheblichem Aufwand verbunden, kann es sinnvoller sein, die Laufzeit der Komponenten zu maximieren, auch wenn damit das Risiko eines unerwarteten Ausfalls einhergeht. Mit Hilfe der Precision-Recall-Kurve lässt sich das Modell so trainieren, dass entweder falsch-positive oder falsch-negative Vorhersagen minimiert werden. In den meisten Situationen ist es nicht möglich, dass sowohl Precision als auch Recall optimiert werden, stattdessen erfolgt meist ein Kompromiss. Die Precision beschreibt dabei den Anteil der korrekt positiven Vorhersagen an allen als positiv klassifizierten Fällen. Der Recall hingegen zeigt das Verhältnis der korrekt positiven Ergebnisse zu allen tatsächlich positiven Fällen. Der F1-Score bildet den gewichteten Durchschnitt von Precision und Recall. Eine Precision-Recall-Kurve kann für verschiedene Algorithmen oder auch für verschiedene Parameter bei einem einzelnen Modell erstellt werden, indem man die jeweiligen Precision- und Recall-Werte bei allen möglichen Schwellenwerten plottet.

Blog-Data-Predictive-Maintenance-Teil-3-Precision-Recall-Kurven

Beispiel von Precision-Recall-Kurven

Die Fläche unter einer Precision-Recall-Kurve gibt Aufschluss über die Leistung eines Modells für bestimmte Parameter. Sie ermöglicht auch den Vergleich mit einem sogenannten No-Skill-Modell, dessen Vorhersagen lediglich proportional zur Anzahl der positiven Fälle im Datensatz sind. Ein perfektes Modell würde sowohl bei Precision als auch bei Recall den Maximalwert von 1 erreichen, was einer Fläche unter der Kurve von 1 entsprechen würde. Je kleiner die Fläche, desto schlechter ist die Modellleistung. Die oben gezeigte Grafik lässt somit erkennen, dass die blaue Kurve eine größere Fläche umfasst als die grüne Kurve und somit bessere Ergebnisse liefert.

Worauf es bei Modellen wirklich ankommt

Neben klassischen Bewertungsmetriken wie Precision oder Recall spielen auch andere Faktoren eine entscheidende Rolle bei der Wahl und dem Training eines geeigneten Modells wie Rechenzeit, Modellgröße und Anpassbarkeit. Denn exzellente Ergebnisse stellen am Ende keine wirkliche Lösung dar, wenn sie zu langsam für Echtzeitanwendungen sind. Da immer mehr Anwendungen auf oder in der Nähe von Edge-Geräten eingesetzt werden, stoßen große Modelle dabei schnell an ihre Grenzen, da nur begrenzte Speicher- und Rechenkapazität zur Verfügung stehen. Kleinere Modelle, die trotzdem zuverlässig arbeiten, sind daher oft die bessere Wahl. Ein weiterer wichtiger Punkt ist die Anpassbarkeit. Modelle, die sich leicht neu trainieren lassen, bieten einen klaren Vorteil in Fällen, in denen schnelle Reaktionen notwendig sind.

Solche Überlegungen stehen direkt im Zusammenhang mit dem Konzept des kontinuierlichen Lernens. Predictive Maintenance-Modelle erfordern ständige Überwachung und regelmäßiges Nachtraining, um Änderungen in den Daten zu berücksichtigen. Je nach Ansatz ermöglichen Tools wie AutoKeras, AutoSkiKitLearn und FeatureTools ein nachhaltiges Modellmanagement. Ein wichtiges Element bei solchen Strategien ist die Festlegung von Werten, die entscheiden, wie oft trainiert wird und unter welchen Umständen Modelle ausgewechselt werden. Anstelle eines einzelnen, komplexen Modells kann auch ein Zusammenspiel mehrerer einfacher Modelle eine wirkungsvolle Alternative sein. Diesen Ansatz nennt man Ensemble Learning. Dabei laufen mehrere Algorithmen gleichzeitig, wodurch die Abhängigkeit von einem einzelnen Modell verringert wird, wenn z. B. ein Modell neu trainiert werden muss. Zudem können bei der Verwendung von mehreren einfachen Modellen ihre Fehler wechselseitig korrigiert werden.

Von der Modellwahl zur Umsetzung

Vorhersagen sind nur dann nützlich, wenn daraus umsetzbare Maßnahmen abgeleitet werden können, sodass schnell, zielgerichtet und proaktiv reagiert werden kann. Erkennt das System einen bevorstehenden Ausfall, ist es entscheidend, sofort die passenden Ansprechpartner zu informieren und die nächsten Maßnahmen klar zu kommunizieren. Hier kommen sogenannte Repair Plans ins Spiel. Diese können weitestgehend vorformuliert sein und in einer Datenbank vorliegen, um bei Bedarf automatisch abgerufen und an relevante Teams übermittelt zu werden. Generative KI kann dabei unterstützen, schneller auf diagnostizierte Ausfälle zu reagieren, da vorgegebene Prompts die automatisierte Erstellung geeigneter Repair Plans ermöglichen.

Damit solche Maßnahmen zuverlässig ausgelöst und umgesetzt werden können, braucht es eine robuste technische Infrastruktur. Eine durchdachte Architektur sowie nachhaltige Pipelines ermöglichen das stabile Deployment von Modellen in der Produktionsumgebung. Sie regularisieren und automatisieren wesentliche Schritte wie die Verarbeitung von Rohdaten, Feature-Engineering, Ergebnisbereitstellung, Modellüberwachung und kontinuierliches Lernen. Während sich klassische ML-Pipelines oft in Cloud-Umgebungen integrieren lassen, ist im Bereich Predictive Maintenance häufig der Einsatz von Edge-fähigen Lösungen notwendig – etwa bei Maschinen ohne ständige Vernetzung oder mit niedrigen Latenzzeiten.

Fazit

Der Übergang von der Modellentwicklung zur produktiven Nutzung erfordert einen klar strukturierten Ansatz. Von der Auswahl über das Training bis zur Implementierung im Betrieb können alle Schritte gezielt geplant werden, um passgenaue Lösungen für Deinen individuellen Anwendungsfall zu schaffen. Wir freuen uns darauf, Dich dabei zu unterstützen, Predictive Maintenance erfolgreich in Deinem Unternehmen zu etablieren.

Du hast bereits ein konkretes Projekt im Sinn?

Entdecke unser vielfältiges Data Analytics Portfolio und tausche Dich unverbindlich mit unseren Data-Experten aus. Gemeinsam finden wir heraus, wie wir Dein Projekt gezielt zum Erfolg führen können.

KONTAKT AUFNEHMEN

MID Blog Newsletter abonnieren

Mehr lesen

Popup Image
stagNames-> |||
counterPost-> [1, 2, 3]
Zurück zum Blog