Ein Instandhalter auf Fehlersuche an einem Triebwerk - in Zukunft könnte er - nach der Einführung von Predictive Maintenance - schon vorher wissen, wo der Fehler liegt.

Noch ist Predictive Maintenance von einem EInsatz 'immer und überall' weit entfernt - aber einzelne Anwendungsfälle sind durchaus bereits einsatzfähig. - Bild: Gorodenkoff - stock.adobe.com

| von Dipl.-Ing. Florian Defèr, FIR

Das ist die Serie Predictive Maintenance: Realitäts-Check

Der Weg zum flächendeckenden Einsatz von Predictive Maintenance ist noch weit. Einzelne Anwendungsfälle können jedoch jetzt schon umgesetzt werden und sich auch wirtschaftlich rentieren. Der Aufwand zur Umsetzung betrieben werden muss ist jedoch sehr hoch, daher sollten Projekte nicht unbedarft angegangen werden.

In den letzten Ausgaben haben wir uns angeschaut, was Predictive Maintenance eigentlich ist und wie eine effektive Weiterentwicklung der Instandhaltung aussehen kann. Der folgende Artikel baut darauf auf und soll ein Gefühl dafür vermitteln, welche Anforderungen an die Infrastruktur und Datengrundlage für Predictive Maintenance gestellt werden und mit welchem Aufwand eine Einführung verbunden ist.

Predictive Maintenance als solches ist noch sehr weit weg von einer Plug-and-Play-Lösung und erfordert einen immensen Aufwand, der nicht angestoßen werden sollte, ohne vorher die eigenen Hausaufgaben gemacht zu haben und sich im Klaren über das Kosten-Nutzen-Verhältnis zu sein.

Infrastruktur: Big Data zu Smart Data

Die Informationstechnologie (IT)- und die Operational Technology (OT)-Infrastruktur der Unternehmen unterscheidet sich aktuell sehr stark, da in der Vergangenheit unterschiedliche Anforderungen an die Leistungsfähigkeit gestellt wurden und unterschiedliche Ansätze zu deren Umsetzung verfolgt wurden.

Gegenwärtig erleben wir zwei technologiegetriebene Ansätze, wie eine Netzwerkestruktur umgesetzt werden kann:

  1. Cloud Trend: Durch die geringen Latenzzeiten von 5G wird es möglich sein, dass selbst Maschinensteuerungen über die Cloud laufen können. Dies bietet großes Potential, was die Wartbarkeit und Releasefähigkeit der Steuerungen anbelangt. Eine weitere technologische Weiterentwicklung die diesen Trend möglich macht, sind intelligent gesteuerte Mesh Netzwerke (einzelne Netzwerkkomponenten bilden ein dezentrales Netzwerk, ohne zentralen Zugangspunkt wie beispielsweise einem WLAN-Router), welche die Leistungsfähigkeit von neuen und bestehenden Netzwerkprotokollen erheblich erhöhen.
  2. Edge Trend: Dem entgegensteht, dass sich die Leistungsfähigkeit der Industrie-PCs immer weiter erhöht und bisherige Funktionen aus der Cloud zu On-Premise ausgelagert werden können. Durch Edge Computing (Dezentrale Datenverarbeitung und Voraggregation an beziehungsweise nah bei der Datenquelle) wird die "Intelligenz" oder die Fähigkeit zur Datenanalyse näher an den Ort der Datengenerierung gebracht und die Infrastruktur entlastet. So kann der Alarm der Zustandsüberwachung direkt an der Anlage generiert werden, ohne die Daten vollständig an ein Rechenzentrum weiterleiten zu müssen.

Kongress SMART MAINTENANCE

Sie sind ein Macher in Sachen moderne Instandhaltung? Sie wollen aktuelle Technologien, Prozesse und die Experten dazu kennenlernen? Dann kommen Sie am 24. und 25. November 2020 auf den Kongress SMART MAINTENANCE in Essen, den führenden praxisfokussierten Event der Branche für Profis aus dem deutschsprachigen Raum.

Es erwarten Sie spannende Einblicke in die Praxis Ihrer Kollegen und neueste Erkenntnisse aus der Forschung – und dazu spannende Gespräche mit anderen Experten sowie eine exklusive Werksführung.

Interessiert? Dann klicken Sie hier und sichern Sie sich Ihr Ticket!

Unabhängig davon welche Entwicklung für die Zukunft maßgeblich ist, ist das stumpfe Sammeln von Maschinendaten, ohne einen konkreten Anwendungsfall zu definieren aus unserer Sicht der falsche Weg. In der Regel führt dies dazu, dass die Daten in einer unzureichenden Qualität oder Menge zur Verfügung stehen und damit für die weitere Verwendung und Auswertung unbrauchbar sind.

Wie Sie vom angelernten Datenmodell lernen

Ein Datenmodell verknüpft verschiedenen Datenquellen beziehungsweise Datensätze miteinander. So können zum Beispiel bekannte physikalische Zusammenhänge mathematisch abgebildet werden. Wenn die Zusammenhänge nicht offensichtlich sind, kann ein Datenmodell dabei helfen, Vermutungen zu relevanten Zusammenhängen abzubilden und zu testen.

Florian Defèr ist Projektleiter und wissenschaftlicher Mitarbeiter am FIR in Aachen.
Florian Defèr ist Projektleiter und wissenschaftlicher Mitarbeiter am FIR in Aachen. - Bild: FIR

Als Vorgehen eignet es sich, dafür Hypothesen aufzustellen und über eine Zustandsdiagnose zu bestätigen oder zu widerlegen. Durch die graphische Darstellung der Datensätze können Zusammenhänge einfacher hergestellt und verstanden werden.

Jedoch ist die Modelbildung dadurch eingeschränkt, dass ein Modell nicht alle Fehlerbilder einer Maschine abbilden kann. So müssen meistens für verschiedene Fehlerbilder eigne Hypothesen und Modelle entwickelt und getestet werden. Dies erhöht signifikant den Aufwand, daher muss eine entsprechende Prüfung auf Häufigkeiten von Fehlerbildern zwingend erfolgen, um den Aufwand der Modellbildung zu rechtfertigen.

Bevor wir einen kurzen Einblick in die Implementierung der Modelle geben, hier nochmal der Hinweis, dass sich mit dem gewonnen tiefen Verständnis der Anlagen und Maschinen auch andere Handlungsempfehlungen als die Implementierung von Predictive Maintenance ableiten lassen.

So kann durch die richtigen Umbauten oder andere Maßnahmen das Fehlerbild eventuell ganz oder teilweise eliminiert werden, sodass eine Zustandsvorhersage wirtschaftliche gesehen unnötig wird.

Das Ziel der Instandhaltung sollte es immer sein, Störungen zu vermeiden -  nicht, diese lediglich effizienter zu verwalten.

Implementierung: Sammeln, Trainieren, Testen - Repeat!

Mit dem vorhandenen Datenmodell lassen sich entsprechende Datencontainer befüllen und sammeln, welche zeitlich oder prozessual zum Beispiel durch eine Störung, Fertigungsschritt, Betriebszustand oder ähnlichem abgegrenzt sind.

Wenn dafür aus der Vergangenheit entsprechende Daten vorliegen, beschleunigt dies den Vorgang selbstverständlich enorm, jedoch ist die Datenqualität und –vollständigkeit sehr genau zu überprüfen. Die gesammelten Datencontainer lassen sich anschließend klassifizieren (labeln) und dadurch einem oder mehreren Fehlerbildern zuordnen

Das Labeln (in der oben stehenden Abbildung ganz rechts) muss in der Regel durch erfahrene Mitarbeiter erfolgen, da meist eine nachträgliche Zuordnung von Instandhaltungs- oder Service- oder MES-Daten (Manufacturing Execution System) nicht ohne weiteres möglich ist.

In der Regel sind die enthaltenen Informationen nicht ausreichend (zum Beispiel durch mangelhafte Zeitstempel) und die Ursachen nicht klar genug abgegrenzt, um eine automatisierte Zuordnung zu ermöglichen. Wenn die notwendige Datengrundlage hergestellt ist, kann das Modell trainiert werden.

Dazu werden die Daten in zwei überschneidungsfreie Gruppen unterteilt. Ein Teil wird für das Training des Modells genutzt, ein weiterer Teil für den Test des Modells. Die Testdaten und Trainingsdaten müssen in der Regel sehr aufwendig vorbereitet und selektiert werden. Dies hängt beispielsweise damit zusammen, dass Fehlerbilder in der Regel nur sehr selten auftreten und die realistische Genauigkeit des Modells bei unter 100 Prozent begrenzt ist.

Wenn jedoch der Fehler nur einmal in 1.000 Datensätzen auftritt und das Modell alle Datensätze als "Gut" klassifiziert, dann erreicht das Modell bereits damit eine Genauigkeit von 99,9 Prozent. Es verfehlt aber seine eigentliche Aufgabe und hat keinen praktischen Mehrwert.

Viele unterschiedliche Techniken des Maschinellen Lernens sind verfügbar und bieten für unterschiedliche Aufgaben ihre Vor- und Nachteile. Eine zunehmend dominierende Art von Modell stellen sogenannte Neuronale Netze dar, welche eine sehr gute Abbildung von komplexen Sachverhalten und eine Klassifizierung von Betriebszuständen ermöglichen.

Das Grundprinzip basiert darauf, dass zwischen Eingangs- und Aufgangsgrößen verschiedene Zwischenalgorithmen (vgl. Hidden Layer) eingesetzt werden und je nach Aufgabe manche Algorithmen mehr oder weniger stark gewichtet werden. Auf der Seite http://playground.tensorflow.org können Sie ihr eigenes neuronales Netz gestalten und ihm beim Lernen zusehen.

Obwohl selbstverständlich die Wahl des richtigen Algorithmus wichtig ist, entscheidet letztendlich vor allem die Datengrundlage darüber, ob ein Modell durch das Training die notwendige Modellgüte erreicht, um verlässliche Aussagen zu treffen. In vielen Fällen ist es daher notwendig, das zugrunde liegende Datenmodell umzustellen und / oder mehr Daten einzubeziehen um das Modell so iterativ zu verbessern.

Warum der Anwendungsfall die Technologie schlägt

Predictive Maintenance ist keine einfach zu beherrschende Technologie und hat darüber hinaus auch eine Reihe von Limitationen. Jedoch kann bereits auf dem Weg dahin ein umfangreiches Verständnis für die eigenen Maschinen und Anlagen aufgebaut und diverse Verbesserungspotentiale abgeleitet werden.

Oftmals liegt der Schwerpunkt der Anwendungsfälle bei teuren, kritischen, sicherheits- oder qualitätsrelevanten Verschleißteilen, welche häufig ausgetauscht werden müssen. Einen spannenden tiefergehenden Eindruck vermittelt die Marktstudie Industrial Machine Learning des Center Smart Services in Aachen, welche Ihnen einen Überblick über Anbieter und Anwendungsfälle gibt.

Immer informiert mit dem Newsletter der INSTANDHALTUNG

Ihnen hat gefallen, was Sie gerade gelesen haben? Dann abonnieren Sie unseren Newsletter!

So bleiben Sie zu allen Neuigkeiten und Trends aus der Instandhaltungs-Branche auf dem Laufenden. Profitieren Sie von den Vorteilen unserer unterschiedlichen Newsletter-Formate - kostenlos!

Hier klicken und anmelden!

Der Eintrag "freemium_overlay_form_ish" existiert leider nicht.