Ging es im ersten Teil unserer Expertenreihe um die Hindernisse bei der Einführung von Predictive Maintenance, geht es in diesem Artikel um die Umgehung dieser Untiefen und die Einführung in der Praxis.

Ging es im ersten Teil unserer Expertenreihe um die Hindernisse bei der Einführung von Predictive Maintenance, geht es in diesem Artikel um die Umgehung dieser Untiefen und die Einführung in der Praxis. - Bild: stock.adobe.com/Manuel

| von Markus Ahorner

Im ersten Teil unserer kleinen Expertenserie haben wir sieben Gründe diskutiert, die aus unserer Sicht maßgeblich dafür verantwortlich sind, dass sich Predictive Maintenance in der Industrie aktuell nur mit großer Verzögerung durchsetzt. In diesem Teil stellen wir fünf konkrete Ansätze vor, mit denen sich diese Barrieren umschiffen lassen.

Die Ansätze lauten:

  1. Transparentes Ausweisen der gesamten Verbesserungspotenziale des Predictive Maintenance-Einsatzes im Unternehmen
  2. Aktives Erkennen der Auswirkungen auf Organisation, Service-Modell und Geschäftsmodell der Instandhaltung
  3. Nutzen von kombinierten KI-Methoden zur flächendeckenden Durchdringung der Fabrik
  4. Festlegen einer klaren Vision und Strategie für Zielbild, Vorgehen und Kommunikation
  5. Entwickeln eines Fahrplans für die Umsetzung über Pilotierung, Anpassung und Roll-out

Sie haben wenig Zeit? Klicken Sie auf den Ansatz, den Sie lesen möchten und Sie kommen direkt dorthin.

Ansatz 1: Transparentes Ausweisen der gesamten Verbesserungspotenziale des Predictive-Maintenance-Einsatzes im Unternehmen

"Transparent" bedeutet in unserem Zusammenhang, Entscheidern die Vorteile und Nutzen der Predictive Maintenance verständlich, passgenau und zielgerichtet und – wichtig! - in deren Anschauungswelt darzustellen. Es hat sich bewährt, auf technische und methodische Fragen antworten zu können, sie aber nicht als Merkmale in den Vordergrund zu stellen. Um eine wohlwollende Entscheidung herbeizuführen, sollten besonders die organisatorischen, wirtschaftlichen und strategischen Vorteile ins Licht gestellt werden.

Falls konkrete Business Cases vorliegen sollten, ist es selbstverständlich hilfreich, diese in die Aufstellung mit einzubeziehen und als solche auszuweisen. Es sollte nur vermieden werden, die Diskussion ausschließlich über kurzfristige Wirtschaftlichkeitsbetrachtungen zu führen, damit der strategische Aspekt nicht in den Hintergrund gerät.

Kongress SMART MAINTENANCE

Die Vorteile und Verbesserungen lassen sich über mehrere Sichtweisen beschreiben, wobei möglichst gut messbare geldliche Bewertungen und eine plausible Abschätzung der Amortisationszeiten fast immer hilfreich bei der Entscheidungsfindung sind.

Zusätzlich sollte bei den Kosten zwischen den Einmalkosten für die Erstinvestition (Projektkosten, eventuelles Customizing, Kosten der Implementierung und Aufwendungen während des Testens) und später wiederkehrenden Kosten (Lizenzen, Miete, Stückkosten im Betrieb und bei Erweiterungen, Pflege und Wartung, regelmäßige Anpassungen des Datenmodells) unterschieden werden.

Unser Vorschlag ist es übrigens, die häufig angefragten internen Ressourcen nicht zu berücksichtigen – denn wenn ein Thema wirklich ist, bleibt das Unwichtigere einfach etwas länger liegen. Mit einer Bewertung der internen Stunden lässt sich ein attraktives Vorhaben leicht kaputtrechnen.

Diesen Kosten werden die Optimierungspotenziale gegenübergestellt, die sich wie folgt ermitteln lassen:

  • Interne oder externe Optimierungen

Dabei wird unterschieden, wo entlang der Wertschöpfungskette die Optimierung wirksam wird. "Intern" bedeutet, dass sich die Optimierung innerhalb des eigenen Unternehmens auswirkt, "extern" bedeutet entsprechend zu den Kunden oder zu Lieferanten hin. Beispiele für interne Optimierungen sind Kostensenkungen durch beschleunigte Abläufe, durch die Reduktion, den Wegfall oder die Automation von menschlichen Leistungen oder durch die Reduktion von Ausschuss.

Während Einsparungen von direkten Kosten in der Instandhaltung meist sofort sichtbar werden, verhält es sich mit Vorteilen, die in der Produktion entstehen, oft anders. Viele Unternehmen "wünschen" sich eine Verfügbarkeitssteigerung, sind aber häufig nicht in der Lage, den monetären Wert einer Einheit an Verfügbarkeit zu bewerten. Das kann daran liegen, dass der Wertstrom in der Anlage nicht detailliert genug bekannt oder transparent ist.

Zudem ist eine Steigerung der gesamten Verfügbarkeit natürlich nur ausnutzbar, wenn die Produktion in dieser Zeit auch tatsächlich ausgelastet ist. Zum Dritten gibt es auch Fälle, wie etwa Wirkstoffanlagen in der Chemie, in der die technische Verfügbarkeit nicht so kritisch ist, weil zwischen den häufigen Produktwechseln Zeit für außerplanmäßige Reparaturen vorhanden ist.

Beispiele für typische Prozessoptimierungen in der Instandhaltung sind:

  • Reduktion der Ausfallzeiten oder Reparaturzeiten
  • Reduktion des Personaleinsatzes für die Leistungserbringung
  • Optimierung des Schichtmodells oder Einsparung von Schichten
  • Einsparung von Ersatzteilen und Ersatzbeschaffungen durch Vermeidung von Folgeschäden
  • Verlängerung von beeinflussbaren Wartungs- und Inspektionsintervallen

Besonders in Produktion und Technik wird, je nach Geschäfts- und Servicemodell des Instandhalters, auch die Steigerung der Anlagenverfügbarkeit eine interne oder externe Optimierung bilden. In diesem Fall ist es allerdings nicht immer einfach, sich auf monetäre Bewertungsmethoden zu einigen.

Mögliche Ansätze sind dabei zum Beispiel die Berücksichtigung von Umsatz- oder Deckungsbeitragsausfall der Produktion im Falle von Anlageneinschränkungen, das Vermeiden von Vertragsstrafen im Fall von Lieferausfällen oder die Risikobewertung der Veränderung von Kundenzufriedenheit in der Supply Chain. Eine Beurteilung wird naturgemäß einfacher, wenn ähnliche Fälle in der Vergangenheit bereits aufgetreten sind.

Ein elegantes Vorgehen ist es, interne und externe Optimierungen in kleinen Schritten aufeinander folgen zu lassen, damit die internen Optimierungen den nächsten Schritt sozusagen "finanzieren".

  • Optimierungen von Produkten und Leistungen oder von Prozessen

Dabei wird unterschieden, ob die Optimierung als Resultat eines Ablaufes wirksam wird, oder entlang des Ablaufs selbst. Beispiele für typische Resultatsoptimierungen in der Instandhaltung sind:

  • Steigerung der Anlagenverfügbarkeit oder der OEE (Overall Equipment Efficiency)
  • Steigerung der Leistungsfähigkeit der Anlage
  • Erhöhung der Standzeiten von Aggregaten
  • Verbesserung des Verhältnisses von Anlagenwertes und Restlaufzeit
  • Senkung der absoluten Instandhaltungskosten
  • Senkung der Instandhaltungskosten bezogen auf den installierten Anlagenwert

Ranking: Wo Predictive Maintenance eingesetzt wird

Prozessoptimierungen betreffen zu einem großen Teil Personalkosten (siehe nächster Punkt). In diesem Zusammenhang sollte geklärt werden, wie die Einsparungen im Alltag umgesetzt werden sollen. Zwar gelten in der Theorie Personalkosten als vollständig beeinflussbar, jedoch sollte in der Praxis parallel zur Ausweisung der Einsparungen ein Konzept vorgelegt werden, wie die durch Predictive Maintenance einzusparenden Einsatzzeiten zukünftig produktiv genutzt werden.

  • Optimierungen von Zeit, Qualität oder Kosten (beziehungsweise Umsatz)

Zeit, Qualität und Kosten sind erprobte Ansätze, um eine Optimierung monetär zu bewerten.

"Zeit" kann zum Beispiel die Verkürzung von Auftragsdurchlaufzeiten oder Reaktionszeiten bedeuten. Die Bewertung geschieht entweder über Prozesskosten (wenn man den Verbrauch an menschlicher Arbeitszeit oder Material detailliert genug kennt) oder über Personalkosten (falls man eine Stelle rechnerisch ganz oder in Teilen ersetzen oder wegfallen lassen könnte).

"Qualität" bezieht sich auf eine Verbesserung von Resultaten in der Produktion oder in der Technik, also zum Beispiel das Einhalten von engeren Toleranzen, das Erfüllen komplexerer Spezifikationen oder die Reduktion von Ausschuss. Hier wird die Einsparung im Einzelfall mit der Zahl der Fälle multipliziert. Qualität kann sich im Service natürlich auch auf immaterielle Weise wie Kundenzufriedenheit auswirken, sie ist dann aber schwierig monetär zu erfassen.

"Kosten" werden berechnet, indem man die Einsparungen bei der Herstellung einer Leistung oder eines Gutes bewertet. Die Faustformel lautet, dass sich die Kosten in der Industrie meistens etwa zu 1/3 bis 1/4 aus Materialkosten und zu 2/3 bis 3/4 aus Personalkosten zusammensetzen.

Video: Predictive Maintenance

Produktionsausfälle oder Produktionsausschuss durch Qualitätsmängel verursachen schnell hohe Kosten – diese zu vermeiden hat daher oberste Priorität. Wie das gehen kann, erklärt dieses Video. - Inhalt: ComputacenterDE

Oft vernachlässigt werden die Kosten aus Folgeschäden bei zu spät erkannten Fehlern oder Ausfällen infolge kleinerer Schäden. Zum Beispiel hatten wir bei einem Unternehmen der Basischemie einen Anteil von bis zu 40 Prozent (!) der Reparaturkosten erkannt, der durch die Früherkennung bei der Schadensbildung vermieden werden konnte. Bei einem Kostenblock der Instandsetzungen von fünf Millionen Euro jährlich und einem Aufwand von circa einer Million für die Implementierung von Predictive Maintenance rechnete sich der flächendeckende Einsatz in diesem Fall recht zügig.

Eine mögliche Umsatzsteigerung ist üblicherweise stärker mit Risiken behaftet als die Reduktion von Kosten. Dieses Risiko besteht aus nicht vorherzusehendem Verhalten von Markt und Kunden, dem Aufwand für Marketing und Vertrieb und den möglichen Anpassungskosten, bis eine Produktidee marktfähig geworden ist, sowie dem sich ständig verändernden Marktpotenzial, dem möglichen Eintritt von Substitutsprodukten oder von neuen Wettbewerbern. Weil die Risikobewertung teilweise schwierig werden kann, ist es häufig einfacher, die strategischen und externen Vorteile qualitativ zu beschreiben – eine gute Kenntnis der übrigen Unternehmensstrategie natürlich vorausgesetzt.

Eine solche Risikobewertung wird allerdings unabdingbar, wenn das Geschäftsmodell des Unternehmens bereits mehr oder weniger direkt von der Einführung von Predictive Maintenance betroffen ist. Dies träfe zum Beispiel zu bei der Neuausrichtung von internen Serviceeinheiten in einem größeren Unternehmen oder von selbstständigen Servicegesellschaften auf einem Markt (siehe unten). In diesem Fall reicht es nicht, die Bewertung intern in Produktion und Technik vorzunehmen, sondern sie sollte mit den entsprechenden Funktionen in Marketing, Vertrieb und Strategischem Controlling abgestimmt werden.

  • Strategische oder operative Optimierungen

Unter "strategisch" versteht man üblicherweise Zeiträume von mehreren Jahren, während sich operative Optimierungen innerhalb der vom Unternehmen vorgegeben Amortisationszeiten (üblicherweise zwischen 12 und 24 Monaten) bewegen.

Strategische Auswirkungen können auf die Wertveränderung des Unternehmens bezogen werden. Zu diesen Wertveränderungen gehören die Intellectual Properties wie Patente, organisatorisches Wissen und fachliche Kompetenzen des Unternehmens, aber auch die Steuerung des Anlagenvermögens, also des Wertes der eigentlichen Produktionsanlagen.

Außerhalb des Top-Managements sind strategische Auswirkungen monetär meistens schwierig zu bewerten, aber sie können eine wichtige Rolle als "flankierendes Argument" spielen. Dies trifft natürlich dann besonders zu, wenn das Geschäfts- und Servicemodell des Unternehmens direkt betroffen ist.

Zum Beispiel kann die strategische Auswirkung von Data Analytics und Predictive Maintenance erheblich sein, wenn ein Serviceunternehmen seine Strategie der Marktbearbeitung ändert und sich statt dezentral bei einzelnen Großkunden zukünftig in der Fläche und bei vielen Einzelkunden aufstellen muss. Ein solcher Fall würde eintreten, wenn etwa der Turbinenservice sich von wenigen Großkraftwerken hin zu vielen kleinen Industriekraftwerken verlagert.

Operative Optimierungen werden am besten durch konkrete Business Cases bewertet. Handelt es sich um Erstanwendungen und Einstiegsfälle, also um Pilotierungen und Prototyp-Projekte, dann sollte von vornherein berücksichtigt werden, dass das Unternehmen fast immer Lernkurven und Fehlerquellen durchlaufen wird. Es wäre illusorisch, beim ersten Mal perfekte und perfekt verwertbare Ergebnisse zu erwarten, unabhängig von der Qualität der ausgewählten Technologie.

Wichtig ist, dass das Unternehmen von Einsatzfall zu Einsatzfall besser wird, systematisch lernt und vermeidbare Fehler von innovationsbedingten Fehlern trennt. Dies trifft umso mehr zu, je schwerer sich das Unternehmen in der Vergangenheit mit Veränderungen und Innovation getan hat. Es gilt, die vorhersagbaren Fehler von vornherein zu vermeiden, denn die unvorhersehbaren Probleme werden ohnehin von allein entstehen und müssen im Projektverlauf gelöst werden.

Eine typische Fehlerquelle in der Predictive Maintenance ist die Wahl der falschen Anlage. Zum Beispiel kann das Produktionsverfahren (wie etwa in der Rückstandsverbrennung oder bei der Reifenherstellung) entscheidend für die Auswahl der Datenquellen sein. Wer sich in diesem Fall allein auf Zustandsdaten verlässt, wird automatisch wichtige Informationen aus den Prozessdaten vernachlässigen und ein weniger zufriedenstellendes Ergebnis erhalten. Auch ist das Testen von Vorhersagemodellen in Anlagen schwierig, die nur selten ausfallen und in der Vergangenheit bereits hohe Verfügbarkeiten aufwiesen. Häufig werden aber genau solche Anlagen für Prototypen ausgewählt, weil in ihnen die Datenlage vielversprechend ist.

Hier ist die Wahl des richtigen Implementierungspartners bedeutend, denn dies sind absolut vermeidbare (wenn auch häufig auftretende) Fehlerquellen, auf die ein erfahrenes Technologieunternehmen seinen Kunden im Vorfeld hinweisen wird.

Ansatz 2: Aktives Erkennen der Auswirkungen auf Organisation, Service-Modell und Geschäftsmodell der Instandhaltung

Wie wir bereits im ersten Teil des Artikels gesehen haben, werden Maschinelles Lernen und Predictive Maintenance einen Paradigmenwechsel in der Instandhaltung herbeiführen. Der Anlagenservice wird sich vom Reagierenden, Retrospektiven und Korrigierenden zukünftiger stärker zum Vorausschauenden, Vermeidenden und Optimierenden hin verändern. Dies wird Auswirkungen auf das gesamte Organisations-, Service- und Geschäftsmodell von industriellen Services haben. Betroffen von dieser Veränderung werden sowohl die internen Technikbereiche als auch die externen Serviceunternehmen sein, denn die Anteile der Arbeit werden sich verschieben.

Da sich die "Wrenchtime", also die einzelne Einheit von vergleichbaren Handwerksleistungen, kaum beeinflussen lässt, differenzierten sich Instandhaltungsbetriebe in der Vergangenheit primär über die Qualität der Gewerke, über die menschliche Erfahrung und Fähigkeit bei der Fehlersuche und Fehlerbehebung sowie über die Steuerungskompetenz der Instandhaltungsabläufe.

Während ein großer Teil der manuellen Arbeit wahrscheinlich noch viele Jahre gebraucht werden wird, werden der analytische Anteil, die Wissensarbeit und der Informationsfluss zukünftig stark durch Softwareagenten automatisiert oder unterstützt werden. Die durch Predictive Maintenance erwarteten Optimierungen und Effizienzsteigerungen werden diejenigen Unternehmen am besten realisieren, die diese am schnellsten und effektivsten intern organisatorisch umsetzen und extern in Wettbewerbsvorteile ummünzen können.

Hier sind einige typische Beispiele für Veränderungen in Organisation, Servicemodell und Geschäftsmodell durch Predictive Maintenance, die sich Instandhaltungsbereiche und Serviceunternehmen zunutze machen können, um systematisch Wettbewerbsvorteile herauszuarbeiten:

Szenario: Wissensbasierte Leistungen der Messung, Überwachung und Auswertung

Die Auflistung stellt zugleich ein Szenario für die schrittweise Automation von wissensbasierten, punktuellen Analytikleistungen in der Instandhaltung zu einem vollständigen digitalen Asset-Management-System dar, in dem die Predictive Maintenance eine wichtige Komponente bildet.

Szenario: Veränderte Nutzungs- und Bezahlmodelle durch verbesserte Risikobewertungen auf Basis datengestützter Analysen und Ausschöpfen von Predictive-Potenzialen

  • Übergang von punktuellen oder gebündelten Leistungen zu Full-Service-Verträgen
  • Übergang von aufwandsbezogener Verrechnung nach Mengengerüsten zu Festpreis-Vergütung
  • Pay-per-Use-Vergütung von analytischen Leistungen
  • Erfolgsbasierte Zahlungsmodelle für den Einsatz von Predictive Maintenance-Lösungen
  • Erfolgsbeteiligung von Serviceunternehmen an der Steigerung von Anlagenverfügbarkeit und Anlagenkapazität

Speziell erfolgsbasierte Vertragsmodelle werden immer wieder diskutiert, sie sollten in der Praxis aber durch transparente Daten unterstützt werden (Due Dilligences und betriebswirtschaftliche Datenanalysen) und mögliche Einflussgrößen und der Rahmen der Gültigkeit klar abgegrenzt werden.

Szenario: Veränderung der Marktkräfte durch technologische Innovation

  • Eintritt neuer Marktteilnehmer (Technologieunternehmen für Software und Beratung) für wissensbasierte Leistungen
  • Eintritt neuer Produkte als Ersatz für bestehende Leistungen (automatische Analysen statt menschlicher Auswertung)
  • Vorwärtsintegration der Anlagenbetreuung von Instandhaltungsdienstleistern durch Partnering mit Technologieunternehmen (zum Beispiel bei der Risikobewertung, beim Technologieeinsatz und bei der Analytik)
  • Rückwärtsintegration durch Partnering von Anlagenbetreibern mit Technologieunternehmen (zum Beispiel beim Technologieeinsatz, beim Anlagenmonitoring und bei der Analytik, bei der Auswahl von Instandhaltungsfirmen)
  • Übergang zu einer Operate & Maintain-Strategie, indem instandhaltungsunternehmen komplette Assets bis hin zur Lohnproduktion für die Produzenten übernehmen

Speziell bei der Veränderung der Marktkräfte sollten sowohl externe Servicedienstleister als auch interne Serviceeinheiten beachten, dass latent immer die Gefahr einer Commoditisierung von menschlichen Instandhaltungsleistungen besteht, bei der sich die Kunden auf den preisgetriebenen Vergleich ähnlicher Handwerkerleistungen von Anbietern konzentrieren und den wissensbasierten Teil der Leistungen selbst aufbauen. Commoditisierung hat zur Folge, dass Fachfirmen der Instandhaltung ihre Wettbewerbsvorteile verlieren und zunehmend austauschbarer werden.

Ranking: Die größten Industriedienstleister Deutschlands

Ansatz 3: Nutzen von kombinierten KI-Methoden zur flächendeckenden Durchdringung

Hartnäckig hält sich das Vorurteil, dass man Predictive Maintenance nur dort einsetzen könne, wo es in der Vergangenheit zu ausreichend vielen Ereignisse gekommen sei, denn nur an solchen "gelabelten" Daten könne eine Maschine das Ausfallverhalten "erlernen". Dabei ist es ebenso möglich, das Verhalten eines gesunden Equipments zu modellieren und ungesunde Abweichungen von diesem Zustand früh zu erkennen, die früher oder später zu einem Ausfall oder einer Funktionsbeeinträchtigung führen werden.

Maschinelles Lernen eignet sich unter anderem so gut für industrielle Datenanalysen, da technische Daten auf Ingenieur- und Naturgesetzen beruhen. Die Daten werden nicht zufällig erzeugt, denn auch wenn einzelne Variablen stochastischen Einflüsse unterliegen mögen und der Mensch im Einzelfall das Systemverhalten nicht zu durchschauen vermag, verhält sich das Gesamtsystem in einem gewissen Rahmen doch immer deterministisch und vorhersagbar.

Da Maschinelles Lernen mit mehr Variablen und mehr historischen Daten meistens immer präziser wird, sind häufig nicht zu viele Daten das Problem, sondern zu wenige. Es können Daten aller Art berücksichtigt werden, also zum Beispiel Zustands-, Prozess- und Qualitätsdaten.

Mit mehr Variablen nimmt die Wahrscheinlichkeit zu, wichtige Zusammenhänge abzubilden. Die charakteristischen Werte des Anlageteils sollten sensorisch erfasst werden, also zum Beispiel Schwingungen und Axiallagen bei rotierendem Equipment oder Temperaturen und Durchflüsse bei Wärmeübertragern. Idealerweise bilden die historischen Daten alle saisonalen Zustände der Anlage ab und sollten daher mindestens einige Woche, besser mindestens 12 Monate umfassen.

Wir werden zeigen, wie sich die beiden Methoden Klassifikation und Regression optimal kombinieren lassen. Wir wollen dabei die Grundlagen mit der Analogie des Arztbesuchs erklären:

  • Automatische Störungsfrüherkennung durch Klassifikation

Üblicherweise wollen wir beim Arztbesuch zunächst wissen, ob wir erkrankt sein könnten. Das entspricht der Anomaliedetektion: Es wird nach auffälligen Werten von Puls, Blutdruck oder anderen Körperfunktionen gesucht und unser Zustand nach "gesund" und "ungesund" eingeteilt (eine sogenannte Klassifikation).

Da Ärzte über eine große historische Datenmenge zum Vergleichen verfügen, können sie relativ leicht erste Auffälligkeiten erkennen und eine vertiefte Untersuchung einleiten. In der Technik kann man diese Klassifikation mit Maschinellem Lernen automatisieren, wenn man über genügend historische Daten mit auffälligen Ereignissen verfügt.

Auch Hygiene hält einen Körper respektive ein Unternehmen gesund: Wenn Sie auf das Bild klicken, lesen Sie, wie weit die Industriereinigung technisch bereits ist.
Auch Hygiene hält einen Körper respektive ein Unternehmen gesund: Wenn Sie auf das Bild klicken, lesen Sie, wie weit die Industriereinigung technisch bereits ist. - Bild: Wisag

War unser Arztbesuch früh genug, können wir bei den Symptomen eventuell noch rechtzeitig Gegenmaßnahmen ergreifen und die Krankheit eindämmen. Wenn die Symptome sich häufig wiederholen, müssen wir die Ursache ergründen und, wenn möglich, beseitigen.

Auf die Technik übertragen bedeutet das: Wenn in der Vergangenheit genügend Ausfälle und genügend historische Daten aufgezeichnet wurden, bietet sich die automatische Klassifikation zur Anomaliedetektion an. Durch die statistische Auswertung von Abweichungen kann eine Maschine auf eine spätere Störung hinweisen, auch wenn die Ursache zunächst nicht bekannt ist. Je mehr Variablen die Maschine in ihrem Datenmodell berücksichtigen kann, desto höher wird die Präzision der Vorhersage, weil ähnliche Zustände in der Vergangenheit bereits zu einer Störung geführt haben.

Mathematisch gesagt, werden multidimensionale Normalverteilungen übereinandergelegt, wobei jede Messgröße dabei eine Dimension bildet. Wird diese Ausbildung kontinuierlich durchgeführt, können die Abweichungen als Trends ausgewertet werden, sodass eine Vorhersage des Zeitfensters möglich wird, in dem der Ausfall wahrscheinlich passieren wird.

  • Automatische Verhaltensmodellierung durch Regression

Manchmal wird bei der ärztlichen Untersuchung auch ein Elektrokardiogramm aufgenommen. Das Ergebnis ist eine Kurve aus Messwerten der Herzfunktion, die vom Spezialisten auf das mögliche Verlassen eines üblichen "gesunden" Zustands untersucht wird. Diese Messung kann nun häufiger wiederholt und der Trend beobachtet werden. Auch wenn wir selbst in der Vergangenheit nicht krank waren, kann mit diesem Verhaltensmodell unserer Herzfunktion eine Aussage über unseren Zustand und über unsere Disposition für zukünftige Krankheiten getroffen werden.

Video: Wie lernt eine KI?

Wie entscheiden und denken Lebewesen? Und wie eine Künstliche Intelligenz? Das erklärt Humboldt-Professor Peter Dayan, einer der international führenden theoretischen Neurowissenschaftler, in diesem Video. - Inhalt: Humboldt-Stiftung

Auf die Technik übertragen bedeutet das: Wenn man in der Vergangenheit zu wenig Ausfälle erlebt hat, bietet sich die Verhaltensmodellierung des Bereichs der gesunden Zustände an. In diesem Fall wird eine Regression zur statistischen Annäherung der dahinterliegenden Formel durchgeführt.

Das Ergebnis ist ein mathematisches Modell, dass innerhalb gewisser Toleranzen das gesunde Verhalten des Systems beschreibt. Die Toleranzen entstehen durch die unvermeidlichen Ungenauigkeiten bei der physikalischen Messung und bei der Modellbildung. Um dieses Modell kann man nun einen Vertrauensbereich legen, den man als Mensch selbst bestimmen kann. Werte innerhalb dieses Vertrauensbereichs sind definitionsgemäß gesund, während Werte außerhalb des Vertrauensbereichs als ungesund angesehen werden.

Es ist daher sinnvoll, dass ein Mensch mit Domänenwissen über das Anlagenteil oder das Bauteil diesen Vertrauensbereich vorgibt. Ebenso kann man Grenz- oder Schaltwerte aus der Anlagensteuerung oder den Regelungen hinzuziehen. Wichtig ist, dass der Vertrauensbereich tatsächlich nicht von der Maschine kalibriert werden kann, denn genau diese Information fehlt der Maschine ja, weil wir in der Vergangenheit zu wenig Ausfälle erlebt haben. Der Mensch muss also stattdessen eine Annahme treffen. Weil diese Arbeit menschliche Ressourcen erfordert, sollte sie nur bei kritischen Anlagenteilen vorgenommen werden.

  • Kombination von Klassifikation und Regression in Abhängigkeit von Kritikalität und Vergangenheit

Wir unterscheiden die Kritikalität und die Vergangenheit. Mit Kritikalität ist gemeint: Das Anlagenteil ist bedeutend in Hinsicht auf die Instandhaltungskosten, die es erzeugt (zum Beispiel als Ergebnis einer Paretoanalyse der IH-Kosten), oder in Hinsicht auf die Bedeutung für die Produktion (zum Beispiel, weil es ein Engpassequipment darstellt).

Mit Vergangenheit ist gemeint: Es liegen entweder ausreichend viele Ereignisse (also Störungen oder Ausfälle) vor, an denen eine Maschine lernen kann, oder nicht. Bei hoher Kritikalität von Anlagenteilen empfehlen wir den Aufbau von Verhaltensmodellen. Mit ausreichend hoher Dichte von Fällen der Vergangenheit und damit von gelabelten Daten kann man die Vertrauensbereiche automatisch generieren.

Daraus ergeben sich vier Fälle, für die sich jeweils eine Lösung besonders eignet:

  1. Fall: Genügend viele Ereignisse der Vergangenheit, Anlagenteil kritisch: Automatische Verhaltensmodellierung (Regression) und automatische Kalibrierung der Vertrauensbereiche
  2. Fall: Genügend viele Ereignisse der Vergangenheit, Anlagenteil unkritisch: Automatische Anomaliedetektion (Klassifikation)
  3. Fall: Anlagenteil kritisch, aber zu wenig Ereignisse der Vergangenheit: Automatische Verhaltensmodellierung (Regression) mit menschlichem Einstellen der Vertrauensbereiche (Domänenwissen)
  4. Fall: Anlagenteil unkritisch und zu wenig Ereignisse der Vergangenheit: Kein Einsatz eines KI-Datenmodells, sondern reaktive und risikobasierte Instandhaltung
  • Bestimmen der Kritikalität von Anlagenbereichen und Anlagenteilen

Wie kritisch ein Anlagenteil ist, bestimmt man am besten aus den Instandhaltungskosten, wie sie zum Beispiel im SAP oder in anderen ERP-Systemen erfasst werden. Idealerweise sind auch die Ausfallzeiten von Anlagenteilen erfasst oder lassen sich entsprechend auswerten, zum Beispiel als Differenz zwischen dem Zeitpunkt der Wiederinbetriebnahme und dem Zeitpunkt des Ausfalls im Prozessleitsystem, in der Anlagensteuerung oder im elektronischen Schichtbuch. Leider werden gerade die wichtigen Daten zur Berechnung der Standzeiten (Mean Time Between Failures MTBF) oder der Reparaturzeiten (Mean Time To Repair MTTR) in vielen Unternehmen nicht erfasst.

Die Instandhaltungskosten, bestehend aus den Kosten der geplanten und ungeplanten Reparaturen, den Kosten für Wartung und Inspektion und den Kosten für eventuelle Modifikationen und technische Optimierungen (sofern sie noch im selben Geschäftsjahr abgeschrieben und nicht aktiviert wurden) sowie die Ausfallzeiten werden mit einer Paretoanalyse sortiert, wobei der jeweils höchste Wert an erster Stelle, der zweithöchste Wert an zweiter Stelle und so weiter gesetzt wird.

Nach jeder Stelle wird die Summe aus den bisherigen Stellen gebildet und die Stelle bestimmt, an der die ersten 20 Prozent der Stellen etwa 80 Prozent der Gesamtkosten ausmachen. Alle Anlagenteilen oberhalb dieser Stelle bilden die Kritikalität A.

Liegen diese Werte nicht oder nur teilweise vor, behilft man sich mit einer Wertstromanalyse. Man bestimmt, welche Produktströme sich auf welchem Weg durch die Anlage bewegen und welche Deckungsbeiträge der Produktstrom an jeder wichtigen Station hat (bzw. welchen Wertzuwachs der Produktstrom an jeder Station hat). Engpassequipment an Stationen mit hohem Deckungsbeitrag oder Wertzuwachs ist automatisch kritisch, redundant vorhandenes Equipment an unwichtigen Stationen ist üblicherweise unkritisch.

Besondere Aufmerksamkeit ist bei kritischen Versorgungsanlagen geboten, die zwar zur Infrastruktur gehören, aber deren Ausfall eventuell eine ganze Produktion stilllegen könnte. Ein Beispiel dafür ist die Abluftanlage für mehrere Hallen in der Farb- oder Lösungsmittelherstellung. Dies ist gleichzeitig auch ein gutes Beispiel dafür, dass für die Predictive Maintenance eventuell mehrere Datenquellen nützlich sind, weil eine solche Anlage aus rotierendem Equipment (Zustandsdaten), Brennkammern (Prozess- und Qualitätsdaten) und Adsorptionsanlagen (Prozessdaten) zusammengesetzt ist und mehrere Datenmodelle zur Überwachung erfordert.

Zusammenfassung des gesamten Vorgehens des Ansatzes 3

Das gesamte Vorgehen kann man in drei Schritte zusammenfassen:

  • Schritt 1: Bestimmung der Kritikalität der Anlagenteile und der Häufigkeit der Ereignisse der Vergangenheit
  • Schritt 2: Auswahl der günstigsten Predictive Maintenance-Methode und Zuordnung der Methoden zu den Anlagenteilen
  • Schritt 3: Kombination der Predictive Maintenance-Datenmodelle zu einem Gesamtmodell für die komplette Fabrik

Darauf folgt eine kontinuierliche Pflege des Datenarchivs und der Datenmodelle.

Ansatz 4: Festlegen einer klaren Vision und Strategie für Zielbild, Vorgehen und Kommunikation

Abteilungen oder Gruppen, zwischen denen keine Kommunikation stattfindet, die sogenannten Silos, finden sich in vielen Unternehmen. Und sie behindern den Geschäftserfolg. Doch es gibt eine gute Methode, die störenden Grenzen zu überwinden. Klicken Sie auf das Bild und finden Sie heraus, welche.
Abteilungen oder Gruppen, zwischen denen keine Kommunikation stattfindet, die sogenannten Silos, finden sich in vielen Unternehmen. Und sie behindern den Geschäftserfolg. Doch es gibt eine gute Methode, die störenden Grenzen zu überwinden. Klicken Sie auf das Bild und finden Sie heraus, welche. - Bild: Pixabay

Nachdem man eine detaillierte Bewertung durchgeführt hat, wie sich Predictive Maintenance auf die Methoden, die Wirtschaftlichkeitsbetrachtung und die strategische Anpassung des Geschäfts auswirkt und wie sich das Unternehmen und seine Produktions- und Technikbereiche diese Potenziale zu nutzen machen können, sollten diese Ergebnisse aufbereitet und für alle Betroffenen und Beteiligten gut sichtbar und verständlich zusammengefasst werden.

Dabei ist es von besonderer Bedeutung, dass die einzelnen Zielgruppen sauber definiert und getrennt angesprochen werden. Es leuchtet sofort ein, dass die Kommunikation der Predictive Maintenance-Potenziale gegenüber dem Management mit anderem Schwerpunkt diskutiert werden sollten als gegenüber der Mitarbeitschaft.

Chancen und Risiken sind keine absoluten Eigenschaften von Vorhaben, sondern sind abhängig von den eigenen Stärken und Schwächen, die sich in unterschiedlichen Situationen verschieden auswirken. Daher ist ihre Bewertung zum Teil auch immer subjektiv und abhängig von der Zielgruppe. Hier sind Beispiele für unterschiedliche Prioritäten und Wahrnehmungen von Chancen und Risiken bei der Umstellung auf Predictive Maintenance auf den verschiedenen Unternehmensebenen:

  • Nachhaltige Effizienzsteigerung durch Senkung von Personalkosten versus zu erwartende Personalreduktion bei gleichbleibendem Geschäft
  • Übergang zu einem wissens-, analytik- und datengetriebenen Unternehmen versus zu erwartende Schwierigkeiten bei der Qualifikation existierender Mitarbeiter und Konfliktpotenzial bei der Einstellung junger, hochausgebildeter Nachwuchskräfte
  • Aufbau von Digital- und Technologiekompetenz versus Abhängigkeit von teilweise schwer verständlichen Black-Box-Datenmodellen und Übergang von der Handwerkswelt zu einer Informatikwelt
  • Entwickeln neuer Wettbewerbsvorteile versus Gefahr, dass die neuen Kompetenzen dem Markt und den Kunden nicht glaubhaft vermittelt werden können
  • Digitale und zukunftsgerichtete Transformation des Geschäfts versus Möglichkeit, dass verschiedenen Elemente nicht beherrschbar sind und die Schwierigkeiten der Umstellung unterschätzt werden und ressourcenmäßig nicht abgedeckt werden können

Aus unserer Sicht hat es sich bewährt, bei der Erklärung von Innovation und Transformation mit Chancen und Risiken gleichermaßen und ehrlich umzugehen und diese zwar konsequent und zielgerichtet, aber nicht diktatorisch, mit den Betroffenen zu diskutieren.

Wichtig ist es, dass die Transformation in Richtung Predictive Maintenance als eine Leitungsaufgabe der Instandhaltung erkannt wird, die sich unweigerlich durch Phasen der enttäuschten Erwartungen, Rückschritte und der Demotivation bewegen wird, bevor schlussendlich die Zielsituation erreicht wird. Daher ist eine unmissverständliche und sichtbare Identifikation der Führungskräfte mit der Predictive Maintenance-Strategie erforderlich.

Ansatz 5: Entwickeln eines Fahrplans für die Umsetzung über Pilotierung, Anpassung und Roll-out

Die Pilotierung, die Anpassung und das fabrikweite Ausrollen von Predictive Maintenance wird zumindest anfangs am sinnvollsten in Form von Projekten vorgenommen. Ein Projekt ist durch diese Elemente gekennzeichnet:

  • Die Aufgabe ist mindestens in wichtigen Details von Mal zu Mal neu oder unterschiedlich
  • Die Ressourcen hinsichtlich Zeit, Personal und Kostenplan sind begrenzt
  • Das Ziel ist klar definiert

Für das Management von Projekten unterscheiden wir zwei grundsätzliche Ansätze: Das Wasserfallmodell des klassischen Projektmanagements und das agile Vorgehen, wie es heute oft für Innovations- und Entwicklungsaufgaben vorgeschlagen wird. Die wichtigsten Eigenschaften der beiden Ansätze lauten:

Wasserfall-Projektmanagement

Hier wird das Projekt in Phasen zerlegt und jede Phase vorher möglichst gut spezifiziert, geplant und budgetiert, damit der Fortschritt in jeder Phase gemessen und überwacht werden kann. Die folgende Phase startet erst, wenn in der aktuellen Phase alle wesentlichen Leistungen erbracht worden sind.

Diese Methode eignet sich vor allem, wenn man bereits über genügend Erfahrungen mit dem Thema verfügt und man die Aufgabe und den Lösungsweg gut beschreiben kann, aber sich Rahmenbedingungen und Details wie zum Beispiel die Projektumgebung, die genaue Zielsetzung oder die Ressourcen von Mal zu Mal ändern. Die Methode hat ihre Schwächen, wenn im Verlauf der Abwicklung zu viele unerwartete Anforderungen hinzukommen oder sich die Ziele während der Projektdurchführung verändern ("Moving Targets").

Agiles Projektmanagement

Anstatt das Projekt von Anfang an zu planen, werden Schritte vorgesehen, in denen bestimmte Zielgrößen erreicht werden sollen und von deren Ergebnis dann das weitere Vorgehen abhängig gemacht wird.

Diese Methode eignet sich vor allem, wenn man die Erwartungen verschiedener Seiten erst im Projektverlauf erkennt und integrieren muss (wie zum Beispiel bei Anwenderoberflächen von Software), wenn man schwerwiegende Anpassungen von Zielen oder Methoden erwartet (zum Beispiel weil sich die Datenqualität als schlechter herausstellt als angenommen) oder weil man allgemein die Aufgabe und den Lösungsweg erst während des Projekts genau beschreiben kann.

Die Schwäche der Methode liegt darin, dass die erforderlichen Budgets schlecht planbar sind und man streng genommen erst hinterher erfährt, was man für seinen Einsatz tatsächlich erhalten hat.

Für die Pilotierung und den Roll-out von Predictive Maintenance schlagen wir als Vorgehensmodell eine Kombination der beiden Methoden vor:

  • Hybrides Projektmanagement

Für diesen Ansatz werden die Vorteile der beiden Methoden kombiniert. Das Projekt wird grundsätzlich in Phasen geplant, budgetiert und durchgeführt. Innerhalb der einzelnen Phasen wird agil auf Veränderungen eingegangen und das Vorgehen angepasst. Jedes Implementierungsprojekt wird als individueller Pilot durchgeführt, und die in den einzelnen Projekten erzeugten Lernkurven werden von einem übergeordneten Projektmanagement ausgewertet und auf die nächsten Projekte übertragen.

  • Vorgehen in den Projektphasen

Jedes Projekt besteht aus einer Offline-Phase und einer Online-Phase. In der Offline-Phase werden die genaue Zielsetzung definiert, die vorhandenen Datenquellen gesichtet und die vorhandenen Daten mit ihren Metadaten (siehe unten) erhoben.

Anschließend werden auf Basis der historischen Daten des Datenarchivs die KI-Datenmodelle für die Anomaliedetektion und die Vorhersagen gebildet. Die Qualität und die Plausibilität der Aussagen werden systematisch überprüft. Erst wenn diese Phase erfolgreich war, werden die Datenmodelle in der Online-Phase im Betrieb implementiert und ausführlich getestet.

Wenn der Online-Test ebenfalls erfolgreich war, ist das Projekt abgeschlossen, und das Vorgehen kann auf neue oder ähnliche Anlagenbereiche übertragen werden. Je ähnlicher die Anlagenbereiche einander sind, desto schneller wird auch die Übertragung funktionieren.

Big Data: Wie die Industrie mit Daten Geld verdienen kann Nur große Datenmengen erheben reicht nicht. Für eine erfolgreiche Industrie 4.0 müssen Daten auch richtig analysiert und monetarisiert werden - wie das geht und was es dabei zu beachten gibt. Mehr erfahren Sie, wenn Sie auf das Bild klicken
Nur große Datenmengen erheben reicht nicht. Für eine erfolgreiche Industrie 4.0 müssen Daten auch richtig analysiert und monetarisiert werden - wie das geht und was es dabei zu beachten gibt, lesen Sie, wenn Sie auf das Bild klicken. - Bild: stock.adobe.com/Phongphan Suppakank

Schwerpunkt Data Engineering

Data Engineering, also das Aufsetzen eines aussagefähigen, konsistenten und durchgängigen Archivs als "Single Point of Truth" ist der Kern jedes industriellen KI-Projekts. Im Data Engineering werden die Daten für das Maschinelle Lernen vorbereitet, in dem nicht aussagekräftige Daten erkannt, fehlerhafte Daten entfernt und Fehlstellen aufgefüllt werden. Dazu werden die Datenbeschreibungen definiert, die sogenannten "Metadaten", die sich aus diesen Gruppen zusammensetzen:

  • Die Ober- und Untergrenzen der betrieblich üblichen Werte jedes Sensors
  • Die Toleranzen der Sensoren
  • Die physikalischen Einheiten der Sensoren
  • Die Unterscheidung zwischen beeinflussbaren Sensoren und Störgrößen
  • Wichtige Informationen über Zeitpunkte und Zeiträume wie Ausfälle, Störungen, Umbauten und Reparaturen, Optimierungen und Anlagenveränderungen
  • Weitere wichtige betriebliche Informationen, die nicht ausdrücklich im Datensatz enthalten sind, wie logische Beziehungen zwischen Daten, organisatorische Informationen (Schichtwechsel, Änderungen von Roh-, Hilfs- und Betriebsstoffen) oder kaufmännische Informationen (Produktwechsel, Lagerbeschränkungen, Auftragssituation)
  • Die Zielgrößen als KPI (Key Performance Indicators) oder als mathematische Zielfunktion

Die Modellbildung für die Predictive Maintenance mithilfe des Maschinellen Lernens erfolgt immer auf Basis eines Trainingssatzes von historischen Daten. Daher ist das Datenarchiv so essenziell für jedes Predictive Maintenance-Projekt. Seine Qualität hat in allen weiteren Schritten Auswirkungen auf die gesamte Projektqualität. Es ist daher sinnvoll, bereits am Anfang jedes Projekts den Fokus auf das Data Engineering zu legen, um sicherzustellen, dass das Datenarchiv diese ausreichende Qualität möglichst früh erhält.

Bilderstrecke - Industrie 4.0: Das sind die Vorteile künstlicher Intelligenz

Proof-of-Concept-Projekte

Das Ziel von Proof of Concept (POC) – auch Proof of Principle (POP) genannt – ist es, die grundsätzliche Machbarkeit von innovativer Technologie am konkreten Fall (oft Use Case genannt) zu demonstrieren. Nach nun mittlerweile über zehn Jahren Erfahrung mit industrieller KI scheint sich das Bild der konkreten Einsatzfähigkeit geklärt zu haben und sich ein gewisser Konsens über die grundsätzliche Reife von Maschinellem Lernen zur Analyse und Modellierung technischer Daten zu verdichten.

Daher raten wir aus unserer Erfahrung nur dort zu POCs, wo noch Zweifel bestehen, ob Anlageninfrastruktur, Messtechnik und Datenqualität einen KI-Einsatz eventuell behindern können. Denn insbesondere die Qualität und Aussagekraft der Daten kann im konkreten Vorgehen zu einem frühen Zeitpunkt überprüft werden, sodass das Risiko, kein aussagefähiges Datenmodell zu erzeugen, überschaubar ist.

Unsere Schlussfolgerung

Der Einsatz von Maschinellem Lernen und von Softwareagenten in der Predictive Maintenance werden mit hoher Wahrscheinlichkeit das Paradigma in der Instandhaltung verändern. Zukünftig wird Instandhaltung aktiver, vorausschauender und vermeidender werden. Dies wird großen Einfluss auf die Geschäftsmodelle von Serviceunternehmen und auf die Make-or-Buy-Strategien von Anlagenbetreibern haben, nicht zuletzt, weil nun auch verstärkt Technologieunternehmen in den Mark für Asset Management drängen.

Tradierte industrielle Servicebereiche und industrielle Serviceunternehmen werden sich in diesem Wettbewerb nur behaupten können, wenn sie lernen, menschliches Wissen durch maschinelle Analyse zu ersetzen und diese Technologie zur neuen Positionierung zu nutzen, ansonsten laufen sie Gefahr, auf rein handwerkliche Arbeit reduziert zu werden und austauschbar zu sein. Wie in diesem Artikel gezeigt, kann Predictive Maintenance bereits heute flächendeckend in der Fabrik implementiert und eingesetzt werden, sodass das Rennen schon eröffnet ist.

Markus Ahorner hat Maschinenbau, Verfahrens- und Energietechnik in Braunschweig und Wirtschaftswissenschaften in Hagen studiert. Nach einer internationalen Laufbahn im Anlagenbau und in der Strategieberatung machte er sich 2001 selbstständig. Seit 2008 arbeitet er auf dem Feld der Datenanalyse und der Künstlichen Intelligenz. Mit dem Team von Ahorner & Innovators (www.ahornerinnovators.com) hat er sich zur Aufgabe gesetzt, produzierende Unternehmen in der DACH-Region mit mathematischen Methoden, Maschinellem Lernen und Smart-Factory-Technologie bei der Digitalen Transformation zu unterstützen.

Der Eintrag "freemium_overlay_form_ish" existiert leider nicht.