Wenn es nur so einfach ginge: Einfach drücken und schon läuft Predictive Maintenance. Warum es aber eben nicht so easypeasy geht, damit hat sich unser Experte Markus Ahorner in diesem ersten Artikel seiner Serie zum Thema beschäftigt.

Wenn es nur so einfach ginge: Einfach drücken und schon läuft Predictive Maintenance. Warum es aber eben nicht so easypeasy geht, damit hat sich unser Experte Markus Ahorner in diesem ersten Artikel seiner Serie zum Thema beschäftigt. - Bild: stock.adobe.com/Sikov

| von Markus Ahorner

Aus unserer Sicht sind vor allem diese sieben Gründe maßgeblich dafür verantwortlich, dass sich Predictive Maintenance in der Industrie aktuell nur mit großer Verzögerung durchsetzt:

  1. Fixierung auf kurzfristige Business Cases statt auf strategischen Nutzen
  2. Unsicherheit durch fehlendes Wissen und fehlende Schlüsselkompetenzen
  3. Falsche Erwartungen an KI-Technologie
  4. Fehlende Integration von Domänenwissen und Messtechnik mit KI-Technologie
  5. Falsche Einschätzung der Datenquellen und fehlende Methodenkenntnis
  6. Fehlende Einbindung von Predictive-Informationen in das Geschäfts- und Servicemodell
  7. Mangelnde Wahrnehmung und Kommunikation der strategischen Auswirkungen

Sie haben wenig Zeit? Klicken Sie auf den Grund, den Sie lesen möchten und Sie kommen direkt dorthin.

In diesem Artikel beleuchten wir diese Gründe und deren Ursachen. Im zweiten Artikel stellen wir konkrete Ansätze vor, mit denen sich diese Barrieren umschiffen lassen.

Fast alle Fachleute und Führungskräfte halten vorausschauende Instandhaltung für einen effektiven und nutzbringenden Ansatz und für ein wesentliches Element der Smart Maintenance. Die Vorteile scheinen auf der Hand zu liegen: Wenn man mit vernünftiger Vorlaufzeit erfahren kann, wann ein Anlagenteil nicht mehr anforderungsgerecht arbeiten wird, kann man rechtzeitig Gegenmaßnahmen einleiten.

Das ist fast immer wirtschaftlicher als abzuwarten, bis etwas nicht mehr optimal funktioniert oder gar ausfällt. Denn man vermeidet Produktionseinschränkungen, ad-hoc-Einsätze und Folgeschäden - alles Faktoren, die die Kosten von Produktion und Instandhaltung unnötig erhöhen.

Gleichwohl setzt sich prädiktive Instandhaltung (englisch: Predictive Maintenance) in den meisten Unternehmen kaum oder nur sehr verzögert durch. Woran liegt das? Wir haben die Projekterfahrungen der letzten drei Jahre ausgewertet und haben diese Ursachen identifiziert:

Grund 1: Fixierung auf kurzfristige Business Cases statt auf strategischen Nutzen

Business Case-Betrachtungen, zu deutsch: Wirtschaftlichkeitsrechnungen, sollen dem Management die Entscheidung erleichtern, wohin es nutzbringend investieren soll. Sie sind im Allgemeinen taktischer und kurzfristiger Natur und erfordern häufig eine Amortisation im Zeitraum bis zu 24 Monaten.

Business Cases verlangen jedoch eine gewisse Vorhersagbarkeit und sind folglich primär hilfreich, wenn sich Geschäftsfelder nicht grundlegend verändern. Unterliegen Geschäfte jedoch einer starken Veränderung, verlieren klassische kurzfristige Amortisationsrechnungen ihren Vorteil, und auch der strategische Aspekt droht verloren zu gehen.

Kongress SMART MAINTENANCE

Die Industrie und speziell das Feld der Instandhaltung ist im Begriff, sich disruptiv zu verändern, auch wenn und vielleicht auch weil viele der Führungskräfte und Betroffenen noch unsicher sind, wie das Resultat dieses Bruches aussehen wird. Die Disruption in der Instandhaltung wird maßgeblich durch den Einsatz von Künstlicher Intelligenz verursacht. Künstliche Intelligenz, speziell das Maschinelle Lernen, ist in der Lage, sehr große und komplexe Datenzeitreihen auszuwerten, und dabei schneller, präziser und ermüdungsfreier als ein Mensch. (Maschinelles Lernen ist die Basistechnologie für die Predictive Maintenance.)

Entscheidungen über den Einsatz von KI sind daher häufig eher strategische als operative Entscheidungen. Aber vor allem ist Predictive Maintenance selbst eine strategische Instandhaltungsmethode. Denn sie verändert das Paradigma der Instandhaltung grundlegend und nachhaltig, denn sie stellt anstelle von rückschauender Analyse und reaktivem Korrigieren das vorausschauende, planerische Handeln und die Vermeidung von Ausfällen in den Vordergrund. Diese Umstellung wird Auswirkungen auf die gesamte Organisation von Instandhaltung und technischen Services haben.

Ranking: Hier ist Predictive Maintenance tatsächlich im Einsatz

Grund 2: Unsicherheit durch fehlendes Wissen und fehlende Schlüsselkompetenzen

"Fehlendes Wissen" kann sowohl bedeuten, etwas nicht zu wissen, was anderen bereits bekannt ist, als auch, gar nicht zu wissen, welches Wissen einem noch fehlt.

In diesem Fall haben wir es mit beiden Aspekten zu tun: Weder kennen sich viele Entscheider in der Instandhaltung auf dem Feld der Digitalisierung ausreichend gut aus, um die richtigen Fragen zur Auswahl von Predictive-Methoden zu stellen, noch verfügen sie über ausreichendes Wissen und Erfahrung, um die Qualität von existierenden Predictive-Lösungen zu beurteilen. (Im besten Fall haben sie bereits einzelne negative Erfahrungen gemacht, haben daraus aber falsche Schlussfolgerungen gezogen, die sie auf zukünftige Ansätze projizieren). Weil sie aber meistens auch auf keine internen oder externen Fachleute zurückgreifen können oder wollen, bewegen sich weiterhin auf einem Feld großer Unsicherheit.

Fach- und Führungskräfte in Produktion und Technik sind üblicherweise Menschen mit einer ingenieurwissenschaftlichen Ausbildung, sehr häufig aus dem Maschinenbau. Traditionell spielten in der Ausbildung der Ingenieure digitale Technologien, wenn überhaupt, dann nur eine untergeordnete Rolle. Weil aber mit zunehmender Digitalisierung auch Büro-IT und Shop-Floor-Automation immer stärker zusammenwachsen, gewinnt Wissen über Automation und Systemdynamik, Mathematik und Statistik und Softwareentwicklung und IT-Architekturen zunehmend an Bedeutung.

Während es vor nicht allzu langer Zeit ausgereicht hatte, wenn sich Fach- und Führungskräfte weitergebildet hatten in den Feldern Betriebswirtschaft, Organisation und Management, verschiebt sich das Anforderungsprofil dadurch überall in Richtung Datenanalyse, Datenmodellierung und Datenmanagement. Datentechnologie wird auf allen Ebenen des Unternehmens immer mehr zu einem kritischen Faktor bei operativen und strategischen Investitionsentscheidungen.

Vielen Fach- und Führungskräften fehlen jedoch Wissen und Kompetenz auf diesen wichtigen Sektoren, sodass viele strategische Entscheidungen in Produktion und Technik nicht getroffen werden. (Auch dies ist übrigens ein Grund dafür, warum sich Manager stark an Business Cases orientieren: Viele sind schlicht nicht in der Lage, die strategischen Auswirkungen von IT-Investitionen zu bewerten beziehungsweise müssen sich auf den Rat interner und externer IT-Fachleute verlassen - die wiederum häufig die Anforderungen von Produktion und Technik nicht optimal beurteilen können).

Video: Digitalisierung verändert Arbeitsweisen

Markus Ahorner in einem Interview der Uni Greifswald zum Thema "Digitalisierung und Arbeitsorganisation". - Inhalt: DieDigitalDenkfabrik

Grund 3: Falsche Erwartungen an KI-Technologie

Vom Zukunftsforscher Roy Amara stammt der Satz: "Wir neigen dazu, die Auswirkung einer Technologie kurzfristig zu überschätzen und langfristig zu unterschätzen". Folgerichtig war die Diskussion über den Einsatz von Künstlicher Intelligenz und Predictive Maintenance in Produktion und Instandhaltung in den letzten Jahren scheinbar durch hyperbolische Übertreibung – Hypes – geprägt.

Das war nicht völlig ungerecht, denn auch wenn sich das Bild der Nützlichkeit von industriellen Maschinellem Lernen allmählich stabilisiert, wurden die ersten Nutzenversprechen in dieser Überhöhung der Realität noch nicht gerecht. Zusätzlich scheint Innovation in den verschiedenen hierarchischen Ebenen nicht wertfrei, sondern mit unterschiedlichen Bewertungen wahrgenommen zu werden. Während Menschen in höheren Managementpositionen anfällig für technologische Hypes zu sein scheinen, scheinen operative Fachleute und Führungskräfte eher skeptisch zu sein.

Mit zunehmender Entfernung vom Fachgebiet fällt es offenbar umso schwerer, die Verheißungen von Innovationen von der technischen Reife der tatsächlichen Produkte zu trennen. In der Folge neigen manche Entscheider dazu, sich auf die Darstellungen von Experten, Beratern und Herstellern zu verlassen, die jedoch nicht immer völlig uneigennützig sind. Dem gegenüber scheinen Betroffene in Produktion und Technik Innovationen gegenüber häufig zurückhaltend, weil sie sich gerne auf erprobte Lösungen und Ansätze verlassen und wissen, dass "der Teufel im Detail steckt".

Beide Verhalten sind vorurteilsbehaftet und sind kontraproduktiv bei der operativen und strategischen Nutzenbewertung von Predictive Maintenance in der Instandhaltung und allgemein von Maschinellem Lernen in der Industrie. Hilfreicher scheint es zu sein, die Unabdingbarkeit des technologischen Wandels anzuerkennen und kluge Kriterien auszuarbeiten, wann der optimale Einstiegspunkt gegeben ist.

In gewisser Hinsicht lässt sich eine geschichtliche Parallele zum PC-Einsatz im technischen Büro der 1990er Jahre ziehen: Nicht viele Entscheider hatten damals verstanden, worin der eigentliche Vorteil von PCs, CAD und CAE bestand, und Business Cases für Desktop-Computer waren wenig offensichtlich.

Heute wären Büros mit Schreibmaschine und Zeichenbrett in einem modernen Industriebetrieb nicht mehr vorstellbar. Vermutlich wird analog dazu in einigen Jahren keine Instandhaltung mehr ohne den Einsatz von KI und Predictive-Methoden denkbar sein.

Grund 4: Fehlende Integration von Domänenwissen und Messtechnik mit KI-Technologie

Nach heutigem Wissen wird eine erfolgreiche industrielle KI-Implementierung durch das Zusammenspiel dreier Kompetenzen deutlich erleichtert:

  • Data Engineering: Das Erfassen, Archivieren und für die maschinelle Bearbeitung Vorbereiten der erforderlichen Daten aus den verschiedenen Datenquellen
  • Data Science: Die Auswahl, das Anpassen und das Implementieren der optimalen KI-Methoden zur Lösung der vorgegebenen Aufgaben, was auch die Kombination verschiedener Methoden beinhaltet
  • Domain Expertise: Die Fähigkeit zum "Übersetzen" der praktischen industriellen Aufgabe in die Sprache der Mathematik und der Informatik und das "Veredeln" der reinen Daten mit betrieblicher Erfahrung, um Datenmodelle möglichst eng an die Anlagenrealität anzupassen.

In der ersten Phase der digitalen Transformation in der Industrie konzentrierte sich die Diskussion auf den Human Factor als zentralen Erfolgshebel. Mangelnde Erfahrung über Vorgehen, Methoden und Grundlagen der Implementierung von Datentechnologien trug dazu bei, anzunehmen, möglichen menschlichen Barrieren müsse durch verstärktes Change Management begegnet werden. Die aktuelle Erfahrung zeigt jedoch eine ganz andere Priorität des Human Factors:

Wie in den meisten industriellen KI-Projekten besteht die Hauptaufgabe beim Einsatz von Predictive Maintenance darin, abstrakte mathematische Datenmodelle möglichst eng an die tatsächliche Anlagenrealität anzunähern, um präzise und aussagekräftige Informationen für die Prozesse und für die Organisation zu gewinnen. Dazu reicht es oftmals nicht, sich auf die Zustandsdaten zu fokussieren, sondern häufig sind auch Prozess-, Qualitäts- und weitere Daten der Problemumgebung zu berücksichtigen.

Dabei kristallisieren sich Fachwissen und Betriebserfahrung als wesentlich heraus. Dies beschreibt der Begriff "Domain Expertise" (deutsch etwa: Domänenwissen). Domänenexperten sind Personen, die die betriebliche Erfahrung bündeln und so verständlich an die Data Engineers und Data Scientists weitergeben können, dass diese die realitätsbestimmenden Größen im Datenmodell zu identifizieren und einzustellen vermögen. Domänenexperten müssen nicht notwendigerweise aus der betroffenen Anlage stammen, sondern primär die Schnittstelle Prozess- und Anlagen-Know-How versus Datenmodell verstehen.

Dabei sollten Domänenexperten möglichst auch Einblick in die eigentliche Datenerfassung und in die Datenquellen haben und die Plausibilität, Qualität und Toleranz von Messungen und Datenaufnahmen beurteilen können, da sich Fehler und Ungenauigkeiten bei der Datenaufnahme durch das gesamte Projekt ziehen werden, die Gesamtqualität der Aussagen beeinflussen und im Nachhinein meist nur mit zusätzlichem Aufwand korrigierbar sind.

Video: Wie wird man Data Scientist?

Data Science, was ist das überhaupt? Was macht ein Data Scientist? Was muss man lernen, wenn man eine Data Science Karriere anstrebt? Diese Fragen beantwortet Niklas Steenfatt in seinem Video. - Inhalt: Niklas Steenfatt

Erst wenn die Datenquellen sauber und vollständig definiert sind, die Herkunft und Beeinflussbarkeit der Daten klar ist und auch nicht in Daten abgebildete Anlageninformation erkannt ist, kann ein aussagekräftiges Datenmodell gebildet werden. Auf dieser Basis entstehen dann allerdings auch leicht Datenmodelle mit einer Genauigkeit von über 99 Prozent, was die Mächtigkeit von Maschinellem Lernen aufzeigt.

In diesem Zusammenhang wird klar, dass "Data Lakes", also das eher unstrukturierte Zusammenführen von „Rohdaten aller Art“ kein Ersatz für konsequentes Data Engineering sein können, sondern höchstens als Übergangsszenario zwischen Nichtstun und Data Warehousing betrachtet werden sollten.

Grund 5: Falsche Einschätzung der Datenquellen und fehlende Methodenkenntnis

Hinsichtlich des Einsatzes von Predictive Maintenance bestehen einige Vorurteile, die häufig aus mangelndem Vorwissen oder nicht vorhandener Erfahrung zu stammen scheinen. Zu diesen Vorurteilen gehören typischerweise:

  • Für die Vorhersage oder Erkennung von Anomalien müssten technische Zustandsdaten erhoben werden (dies kann stimmen, aber muss nicht allgemein richtig sein, da es vom Verfahren und der Anlagenumgebung abhängt)
  • Um technische Zustandsdaten zu erfassen, müssten Condition Monitoring-Systeme eingesetzt werden (auch dies kann stimmen, häufig aber sind die Prozess- und Anlagensteuerungen bereits ausreichend, um verlässliche Aussagen zu ermöglichen)
  • Prozess-, Qualitäts- und Verfahrensdaten seien Domäne der Produktionsoptimierung und brauchen für die Predictive Maintenance nicht berücksichtigt zu werden (dies kann in Einzelfällen richtig sind, ist im Alltag allerdings oft falsch und kontraproduktiv)
  • Predictive Maintenance sei nur möglich, wenn es in der Vergangenheit ausreichend viele Ereignisse, Anomalien oder Störungen gegeben hat und die Daten entsprechend gekennzeichnet sind (dies ist eindeutig falsch)
  • Man müsse sich entweder auf die Verhaltensmodellierung oder die Anomalieerkennung konzentrieren, um aussagefähige Datenmodelle zu erhalten (dabei ist gerade die Kombination der beiden Methoden am wirkungsvollsten)

Hingegen zeigt die tatsächliche Erfahrung häufig, dass:

  • Die Daten aus Anlagen- und Prozesssteuerungen äußerst wertvoll sind und bereits ausreichend, um präzise und aussagekräftige Datenmodelle zu erzeugen, sodass eine zusätzliche Ausstattung mit Sensorik gar nicht erforderlich ist
  • Eine Methodenkombination aus Regressionen (zur Verhaltensmodellierung) und Klassifikation (zur Anomalieerkennung) die besten Ergebnisse ergibt
  • Ereignisse der Vergangenheit die Datenmodellierung komfortabler und schneller machen, aber nicht notwendigerweise für Predictive Maintenance erforderlich sind
  • Gerade die Berücksichtigung von weiteren Datenquellen wie Prozess- und Qualitätsdaten eine Ereignisvorhersage erst ermöglicht oder zumindest deutlich verbessert

Auch hier zeigt sich, dass Methodenkenntnis und Grundlagenwissen bessere Entscheidungen ermöglichen.

Nummer 6: Fehlende Einbindung von Predictive-Informationen in das Geschäfts- und Servicemodell

Der Nutzen von Information entsteht erst, wenn entsprechende Maßnahmen daraus abgeleitet werden. Daher müssen Predictive-Informationen über zukünftige Ereignisse oder deren Ursachen von einer Instandhaltungsorganisation auch operativ verarbeitet und umgesetzt werden können. Je reaktiver und retrospektiver eine Instandhaltungsmannschaft bisher gearbeitet hat, desto geringer wird der Nutzen der neuen Information ausfallen.

Drastisch formuliert bedeutet dies:

  • Der Einsatz von Predictive Maintenance darf nicht auf wenige Anlagenteile beschränkt bleiben, sondern muss möglichst flächendeckend erfolgen
  • Die Information daraus sollte nach Möglichkeit in neue Service- und Organisationsmodelle fließen, die vorausschauend, planend und vermeidend arbeiten
  • Dieser Paradigmenwechsel erfordert also auch eine entsprechende Anpassung von Service- und Vergütungs- bzw. Anreizsystemen, denn mit dem steigenden Einsatz von Predictive Maintenance wird es bei gleichbleibender Verfügbarkeit unvermeidlich zu einem Rückgang der klassischen Instandhaltungsleistungen kommen, da der Reparaturaufwand abnehmen sollte und die Wartungs- und Inspektionszyklen sich im Durchschnitt verlängern sollten und sich die Betreiber erwarten, an diesen Einsparungen beteiligt zu werden

Nummer 7: Mangelnde Wahrnehmung und Kommunikation der strategischen Auswirkungen

Selbst wenn die methodischen, wirtschaftlichen und organisatorischen Barrieren erkannt und beseitigt werden, besteht weiterhin die Möglichkeit, dass die erforderlichen Entscheidungen zur Umsetzung von Predictive Maintenance nicht getroffen werden. In diesem Fall können die Funktion der Instandhaltung aus Managementsicht zu unbedeutend oder die hierarchische Macht der Technik im Unternehmen zu schwach sein, um für solche tief gehenden Veränderungen die erforderliche Wahrnehmung zu schaffen.

Letztlich bleibt es die fundamentale Verantwortung der Serviceorganisation, das interne Marketing der Ideen zu übernehmen, die für ihre eigene Zukunft prägend sind. Dies kann sinnvollerweise im Verbund mit den internen und externen Kunden in Produktion und Technik geschehen. Denn wer anders als die Betroffenen soll die optimale Kommunikation solch wichtiger Ideen übernehmen?

Im zweiten Teil zeigen wir konkrete Lösungen und Wege auf, um Predictive Maintenance flächendeckend in der Fabrik umzusetzen. Einfach hier klicken.

Über den Autor

Markus Ahorner hat Maschinenbau, Verfahrens- und Energietechnik in Braunschweig und Wirtschaftswissenschaften in Hagen studiert. Nach einer internationalen Laufbahn im Anlagenbau und in der Strategieberatung machte er sich 2001 selbstständig. Seit 2008 arbeitet er auf dem Feld der Datenanalyse und der Künstlichen Intelligenz. Mit dem Team von Ahorner & Innovators (www.ahornerinnovators.com) hat er sich zur Aufgabe gesetzt, produzierende Unternehmen in der DACH-Region mit mathematischen Methoden, Maschinellem Lernen und Smart-Factory-Technologie bei der Digitalen Transformation zu unterstützen. 

Der Eintrag "freemium_overlay_form_ish" existiert leider nicht.