Ein Instandhalter auf Fehlersuche an einem Triebwerk - in Zukunft könnte er - nach der Einführung von Predictive Maintenance - schon vorher wissen, wo der Fehler liegt.

Noch ist Predictive Maintenance von einem EInsatz 'immer und überall' weit entfernt - aber einzelne Anwendungsfälle sind durchaus bereits einsatzfähig. - Bild: Gorodenkoff - stock.adobe.com

Das ist die Serie Predictive Maintenance: Realitäts-Check

Teil 1: Das muss man vor einem Predictive Maintenance Projekt wissen

Teil 2: So führen Sie Predictive Maintenance richtig ein

Teil 3: Wie Sie Predictive Maintenance richtig umsetzen

Der Weg zum flächendeckenden Einsatz von Predictive Maintenance ist noch weit. Einzelne Anwendungsfälle können jedoch jetzt schon umgesetzt werden und sich auch wirtschaftlich rentieren. Der Aufwand zur Umsetzung betrieben werden muss ist jedoch sehr hoch, daher sollten Projekte nicht unbedarft angegangen werden.

In den letzten Ausgaben haben wir uns angeschaut, was Predictive Maintenance eigentlich ist und wie eine effektive Weiterentwicklung der Instandhaltung aussehen kann. Der folgende Artikel baut darauf auf und soll ein Gefühl dafür vermitteln, welche Anforderungen an die Infrastruktur und Datengrundlage für Predictive Maintenance gestellt werden und mit welchem Aufwand eine Einführung verbunden ist.

Predictive Maintenance als solches ist noch sehr weit weg von einer Plug-and-Play-Lösung in der Wartung einer Maschine und erfordert einen immensen Aufwand, der nicht angestoßen werden sollte, ohne vorher die eigenen Hausaufgaben gemacht zu haben und sich im Klaren über das Kosten-Nutzen-Verhältnis zu sein.

Infrastruktur im Unternehmen: Big Data zu Smart Data

Die Informationstechnologie (IT)- und die Operational Technology (OT)-Infrastruktur der Unternehmen unterscheidet sich aktuell sehr stark, da in der Vergangenheit unterschiedliche Anforderungen an die Leistungsfähigkeit des Systems gestellt wurden und unterschiedliche Ansätze zu deren Umsetzung verfolgt wurden.

Gegenwärtig erleben wir zwei technologiegetriebene Ansätze, wie eine Netzwerkstruktur umgesetzt werden kann:

  • Cloud Trend: Durch die geringen Latenzzeiten von 5G wird es möglich sein, dass selbst Steuerungen von Maschinen über die Cloud laufen können. Dies bietet großes Potenzial für Unternehmen, was die Wartbarkeit und Releasefähigkeit anbelangt. Eine weitere technologische Weiterentwicklung, die diesen Trend möglich macht, sind intelligent gesteuerte Mesh Netzwerke (einzelne Netzwerkkomponenten bilden ein dezentrales Netzwerk, ohne zentralen Zugangspunkt wie beispielsweise einem WLAN-Router), welche die Leistungsfähigkeit von neuen und bestehenden Netzwerkprotokollen erheblich erhöhen.
  • Edge Trend: Dem entgegensteht, dass sich die Leistungsfähigkeit der Industrie-PCs immer weiter erhöht und bisherige Funktionen aus der Cloud zu On-Premise im Unternehmen ausgelagert werden können. Durch Edge Computing (Dezentrale Datenverarbeitung und Voraggregation an beziehungsweise nah bei der Datenquelle) wird die "Intelligenz" oder die Fähigkeit zur Datenanalyse näher an den Ort der Datengenerierung gebracht und die Infrastruktur entlastet. So kann der Alarm der Zustandsüberwachung direkt an der Anlage generiert werden, ohne die Informationen vollständig an ein Rechenzentrum weiterleiten zu müssen.

Unabhängig davon welche Entwicklung für die Zukunft maßgeblich ist, ist das stumpfe Sammeln von Maschinendaten, ohne einen konkreten Anwendungsfall zu definieren aus unserer Sicht der falsche Weg. In der Regel führt dies dazu, dass die Daten in einer unzureichenden Qualität oder Menge zur Verfügung stehen und die Informationen damit für die weitere Verwendung und Auswertung (zum Beispiel in der Wartung) unbrauchbar sind.

Wie Sie vom angelernten Datenmodell lernen

Ein Datenmodell verknüpft verschiedenen Datenquellen beziehungsweise Datensätze miteinander. So können zum Beispiel bekannte physikalische Zusammenhänge mathematisch abgebildet werden. Wenn die Zusammenhänge nicht offensichtlich sind, kann ein Datenmodell dabei helfen, Vermutungen zu relevanten Zusammenhängen abzubilden und zu testen.

Florian Defèr ist Projektleiter und wissenschaftlicher Mitarbeiter am FIR in Aachen.
Florian Defèr ist Projektleiter und wissenschaftlicher Mitarbeiter am FIR in Aachen. - Bild: FIR

Als Vorgehen im Vorfeld der vorausschauenden Wartung eignet es sich, dafür Hypothesen aufzustellen und über eine Zustandsdiagnose zu bestätigen oder zu widerlegen. Durch die grafische Darstellung der Datensätze können Zusammenhänge einfacher hergestellt und verstanden werden.

Jedoch ist die Modelbildung dadurch eingeschränkt, dass ein Modell nicht alle Fehlerbilder einer Maschine abbilden kann. So müssen meistens für verschiedene Fehlerbilder eigne Hypothesen und Modelle entwickelt und getestet werden. Dies erhöht signifikant den Aufwand, daher muss eine entsprechende Prüfung auf Häufigkeiten von Fehlerbildern zwingend erfolgen, um den Aufwand der Modellbildung zu rechtfertigen.

Bevor wir einen kurzen Einblick in die Implementierung der Modelle geben, hier nochmal der Hinweis, dass sich mit dem gewonnen tiefen Verständnis der Anlagen und Maschinen auch andere Handlungsempfehlungen als die Implementierung von Predictive Maintenance ableiten lassen.

So kann durch die richtigen Umbauten der Maschine oder andere Maßnahmen das Fehlerbild eventuell ganz oder teilweise eliminiert werden, sodass eine Zustandsvorhersage wirtschaftliche gesehen unnötig wird.

Das Ziel der Instandhaltung beziehungsweise der Wartung sollte es immer sein, Störungen zu vermeiden -  nicht, diese lediglich effizienter zu verwalten.

Implementierung: Sammeln, Trainieren, Testen - Repeat!

Mit dem vorhandenen Datenmodell lassen sich entsprechende Datencontainer befüllen und sammeln, welche zeitlich oder prozessual zum Beispiel durch eine Störung, Fertigungsschritt, Betriebszustand oder ähnlichem abgegrenzt sind.

Wenn dafür aus der Vergangenheit entsprechende Daten vorliegen, beschleunigt dies den Vorgang selbstverständlich enorm, jedoch ist die Datenqualität und –vollständigkeit sehr genau zu überprüfen. Die gesammelten Datencontainer lassen sich anschließend klassifizieren (labeln) und dadurch einem oder mehreren Fehlerbildern zuordnen.

Das Labeln (in der oben stehenden Abbildung ganz rechts) muss in der Regel durch erfahrene Mitarbeiter erfolgen, da meist eine nachträgliche Zuordnung von Instandhaltungs- oder Service- oder MES-Daten (Manufacturing Execution System) nicht ohne weiteres möglich ist.

In der Regel sind die enthaltenen Informationen nicht ausreichend (zum Beispiel durch mangelhafte Zeitstempel) und die Ursachen nicht klar genug abgegrenzt, um eine automatisierte Zuordnung zu ermöglichen. Wenn die notwendige Datengrundlage hergestellt ist, kann das Modell trainiert werden.

Dazu werden die Daten in zwei überschneidungsfreie Gruppen unterteilt. Ein Teil wird für das Training des Modells genutzt, ein weiterer Teil für den Test des Modells. Die Testdaten und Trainingsdaten müssen in der Regel sehr aufwendig vorbereitet und selektiert werden. Dies hängt beispielsweise damit zusammen, dass Fehlerbilder in der Regel nur sehr selten auftreten und die realistische Genauigkeit des Modells bei unter 100 Prozent begrenzt ist.

Wenn jedoch der Fehler nur einmal in 1.000 Datensätzen auftritt und das Modell alle Datensätze als "Gut" klassifiziert, dann erreicht das Modell bereits damit eine Genauigkeit von 99,9 Prozent. Es verfehlt aber seine eigentliche Aufgabe und hat keinen praktischen Mehrwert.

Modell trainirene und verbessern

Viele unterschiedliche Techniken des Maschinellen Lernens sind verfügbar und bieten für unterschiedliche Aufgaben ihre Vor- und Nachteile. Eine zunehmend dominierende Art von Modell stellen sogenannte Neuronale Netze dar, welche eine sehr gute Abbildung von komplexen Sachverhalten und eine Klassifizierung von Betriebszuständen ermöglichen.

Das Grundprinzip basiert darauf, dass zwischen Eingangs- und Aufgangsgrößen verschiedene Zwischenalgorithmen (vgl. Hidden Layer) eingesetzt werden und je nach Aufgabe manche Algorithmen mehr oder weniger stark gewichtet werden. Auf der Seite http://playground.tensorflow.org können Sie ihr eigenes neuronales Netz gestalten und ihm beim Lernen zusehen.

Obwohl selbstverständlich die Wahl des richtigen Algorithmus wichtig ist, entscheidet letztendlich vor allem die Datengrundlage darüber, ob ein Modell durch das Training die notwendige Modellgüte erreicht, um verlässliche Aussagen zu treffen. In vielen Fällen ist es daher notwendig, das zugrunde liegende Datenmodell umzustellen und / oder mehr Daten einzubeziehen um das Modell so iterativ zu verbessern.

Warum der Anwendungsfall die Technologie schlägt

Predictive Maintenance ist keine einfach zu beherrschende Wartungs-Technologie und hat darüber hinaus auch eine Reihe von Limitationen. Jedoch kann bereits auf dem Weg dahin ein umfangreiches Verständnis für die eigenen Maschinen und Anlagen aufgebaut und diverse Verbesserungspotentiale abgeleitet werden.

Oftmals liegt der Schwerpunkt der Anwendungsfälle bei teuren, kritischen, sicherheits- oder qualitätsrelevanten Verschleißteilen, welche häufig ausgetauscht werden müssen. Einen spannenden tiefergehenden Eindruck vermittelt die Marktstudie Industrial Machine Learning des Center Smart Services in Aachen, welche Ihnen einen Überblick über Anbieter und Anwendungsfälle gibt.

Instandhaltung ist IHR Thema und Sie wollen immer informiert sein, was in Ihrer Branche angesagt ist? Dann folgen Sie unserem Fachmagazin auf LinkedIn:

https://www.linkedin.com/company/fachmagazin-instandhaltung

Kostenlose Registrierung

Newsletter
Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?