Instandhalterin mit Tablet in industrieller Umgebung

Digitale Lösungen sind gut und schön - aber ohne die nötige Datenqualität sind sie nicht optimal nutzbar. (Bild: Gorodenkoff/stock.adobe.com)

Immer häufiger setzen Unternehmen der Produktionsindustrie auf digitale Lösungen, um ihre Fertigungsprozesse und Anlagen möglichst effizient gestalten beziehungsweise steuern zu können. Hierfür werden riesige Datenmengen gesammelt, um nicht nur das Zusammenspiel zwischen Mensch und Maschine zu optimieren. Auch die gesamten technischen Abläufe werden darüber gesteuert, um Ausfallzeiten zu reduzieren, die Total Costs of Onwership (TCO) nachhaltig zu senken und Instandhaltungsstrategien umzusetzen.

Damit all das reibungslos funktioniert, braucht es jedoch die richtigen Daten. Verwertbare Informationen, die gut strukturiert sind und die digitale Transformation von Betriebsprozessen fördern, anstatt sie zu behindern. Doch worauf kommt es bei einem effizienten Datenmanagement eigentlich an? Und wie lässt sich trotz zunehmender Komplexität verfügbarer Informationen eine möglichst hohe Datenqualität im Unternehmen erreichen, um Störungen im Betriebsablauf gezielt zu vermeiden?

Tim White
(Bild: T.A.Cook)

In seiner Rolle als Principal bei T. A. Cook, Part of Accenture, konzentriert sich Tim White auf die Bereitstellung von Dienstleistungen im Zusammenhang mit Digital Asset Performance Management. Zuvor war er in der Prozessindustrie als Global Director für Asset Management tätig und verantwortlich für 83 Standorte weltweit. Mit dieser Praxiserfahrung unterstützt er zahlreiche Kunden bei der Lösung ihrer Asset-Management- und Instandhaltungs-Strategien.

Bei Fragen zum Thema erreichen Sie Tim White unter t.white@tacook.com

Schrittweise zu einem effizienten Datenmanagement

Das Thema Datenqualität mag für viele Menschen nicht besonders aufregend sein. Vermutlich einer der Hauptgründe, weshalb es in zahlreichen Unternehmen vernachlässigt oder gar übersehen wird. Dabei ist eine schlechte Datenqualität einer der häufigsten Ursachen dafür, dass eine Vielzahl neuer Systemimplementierungen von den Endbenutzern als überflüssig empfunden werden. Die Nutzung von qualitativ hochwertigen Daten ist jedoch wichtiger denn je, da immer mehr Unternehmen ihre gesamten Fertigungsprozesse, Produktionsanlagen und Systeme mithilfe von Operational Technology (OT) und Industrial Internet of Things (IIoT) Lösungen überwachen. Wer allerdings behauptet, in puncto Datenqualität keinerlei Probleme zu haben, dürfte auf kurz oder lang mit eben solchen konfrontiert sein. Denn nur durch ein effizientes Datenmanagement lässt sich die optimale Steuerung von Produktionsprozessen sicherstellen. Worauf es dabei wirklich ankommt und worauf genau geachtet werden sollte, erklärt Tim White vom Consultingunternehmen T.A. Cook, Part of Accenture.

Oliver Adam Mølskov Bech, 16 November 2018, Data Quality Management, DTU, 13 April 2021
Grafik zur Datenqualiät (Bild: T.A.Cook, Part of Accenture)

Verwaltung der Datenqualität von OT-Systemen

Rohdaten aus Prozessleitsystemen sind in der Regel unbrauchbar, wenn sie vor der eigentlichen Analyse nicht verarbeitet wurden. Erst müssen Daten-Tags der jeweiligen Anlage zugeordnet werden, für die sie relevant sind. Ebenfalls muss klar definiert sein, was und wie sie messen. Und nicht selten müssen sogar andere Maßeinheiten mitberücksichtigt werden. Ein erster Schritt auf dem Weg zur Operational Technology (OT) im Unternehmen ist die Entwicklung und Dokumentation eines Standards, wie diese konkret implementiert und anschließend verwaltet werden soll.

Syntaktische Datenqualität: Wie lässt sich Konsistenz erreichen?

Beginnen wir zunächst mit der syntaktischen Qualität, deren Ziel es ist, Konsistenz zu erzeugen. Zu den Bereichen, die diesbezüglich adressiert werden sollten, zählen:

  • Data-Tag-Descriptions: Diese sollten eine einheitliche Syntax besitzen. Führen Sie daher am besten eine Strategieplanung durch, um Ihren Ansatz klar zu definieren. Beachten Sie dabei unbedingt, dass die Anzahl der Zeichen, auf der eine Software aufbaut, häufig stark begrenzt ist.
  • Abkürzungen: Nichts ist frustrierender als unterschiedliche Abkürzungen, die innerhalb eines Datensatzes vorliegen. Soll es zum Beispiel Celsius oder C heißen beziehungsweise Motor oder MTR?
  • Akronyme: Legen Sie fest, welche Wörter und Ausdrücke vollständig ausgeschrieben und welche davon in allgemein gültiger Kurzform verwendet werden – sei es bei Standortnamen, Einheiten, Fertigungslinien, et cetera. Heißt es also zum Beispiel Pipestills 4 oder PS4?!
  • Hierarchie: Operative Technologien, die alle relevanten Anlagen- und Prozessdaten erfassen, benötigen normalerweise Daten-Tags, die den zu überwachenden Assets zugewiesen werden können. Hierfür braucht es in der Regel eine Hierarchie für die Informationen, die optimalerweise eine Kopie der Hierarchie im EAM-System sein sollte.
  • Maßeinheiten: Es ist nicht ungewöhnlich, dass die Daten von OT-Systemen nicht mit Maßeinheiten versehen sind. Erschwerend kommt hinzu, dass die Einheiten je nach Standort einer Anlage unterschiedlich sein können. Gerade bei globalen Unternehmen kann das manchmal für Verwirrung sorgen und sich gleichermaßen auf Datenmodelle als auch deren Output auswirken. Ein gutes Beispiel hierfür ist die Temperatur. Wird diese nun in Fahrenheit oder Celsius gemessen? Hier stellen sich essenzielle Fragen: Welche Einheit soll standardisiert verwendet werden? Wird der fehlende Messwert ebenfalls ermittelt oder sogar beide bereitgestellt?
  • Kennzeichnungen und Identifikatoren: Die meisten Systeme zur Prozessdatenspeicherung bieten auch die Möglichkeit, die gesammelten Informationen auf Überwachungsmonitoren abzubilden. Nutzen Sie diese Gelegenheit, um exakt festzulegen, wie die einzelnen Bildschirme und die darauf angezeigten Inhalte beschriftet sein sollen. Das hat zwar keinen unmittelbaren Einfluss auf die Nutzung der Daten. Diese Maßnahme sorgt jedoch dafür, dass für das gesamte System ein professionelles und standardisiertes Erscheinungsbild erzeugt wird.

Pragmatische Datenqualität: Worauf beziehen sich Daten und sind diese auch korrekt?

Es ist unerlässlich, dass Sie genau wissen, worauf sich die gesammelten Daten genau beziehen und dass diese korrekt sind. Das kann natürlich mit viel Aufwand verbunden sein. Allerdings müssen die Daten für neue Systeme aussagekräftig sein und die Realität widerspiegeln. Nur so können Analysten und Datenwissenschaftler damit wirklich etwas anfangen.

Die meisten von uns haben mit veralteten Anlagen und Kontrollsystemen zu tun, die oftmals nicht über alle erforderlichen Referenzinformationen verfügen, sodass die Daten direkt genutzt werden können. Zwar kann ein "Tag" im Steuersystem bei der Zuordnung von Messwerten helfen, es fehlt aber möglicherweise noch die Maßeinheit. All diese fehlenden Informationen müssen erst recherchiert werden und im sogenannten "Data Historian", einem Datenereignisspeicher zur Erfassung von Prozessdaten, ergänzt werden. Insbesondere wenn zusätzliche Kontrollsystemdaten erfasst werden sollen, ist dies ein unbedingt notwendiger Schritt.

Auch Sensoren können falsche Daten liefern. Was sich unmittelbar auf die genutzten Berechnungen und Modelle auswirkt. Das Ergebnis sind ungenaue oder sogar falsche Informationen – besser bekannt als "falsch-positive Ergebnisse". Es existieren verschiedene Szenarien, in denen es zu solchen Fehlinformationen kommt:

Datenspitzen: Gelegentlich senden Sensoren falsche Messwerte, die physikalisch gar nicht möglich wären. Ein Beispiel: Die Temperatur liegt gewöhnlich konstant bei 100 Grad, steigt plötzlich auf 500 Grad an und kehrt innerhalb weniger Sekunden auf 100 Grad zurück. Für solche Fälle sollten Regeln, sogenannte "Persistence Gates", in die Berechnungen eingebaut werden, die besagen, dass Messwerte, die außerhalb der Parameter liegen, für eine bestimmte Zeit fortgesetzt werden müssen, um so solche  Fehlalarme zu ignorieren. Sollten die Spitzen häufiger auftreten, ist dies häufig ein Indiz für einen defekten Sensor, der zeitnah ausgetauscht werden sollte.

Sensordrift: Im Laufe der Zeit können die Messwerte zunehmend abweichen und fehlerhafte Ergebnisse übermitteln. Mitunter ein Hinweis dafür, dass eine Kalibrierung notwendig ist. Auch solche Abweichungen sollten in das Datenmodell mit aufgenommen werden. Wobei automatische Warnmeldungen gezielt darauf hinweisen, dass eine entsprechende Wartung des Sensors fällig ist.

Die semantische Datenqualität erfordert den größten Aufwand. Nichtsdestotrotz sollten identifizierte Probleme und deren Ursachen als Teil der Standards dokumentiert werden. Maßnahmen, die für eine erfolgreiche Datenverarbeitung und Übertragung in aussagekräftige Informationen besonders wichtig sind.

Pragmatische Datenqualität: Sind Ihre Daten vollständig und zeitnah verfügbar?

Vollständig verfügbare und zeitnah bereitgestellte Informationen sind das A und O, wenn Sie OT-Daten für die Durchführung weiterer Analysen verwenden wollen. Dabei muss sichergestellt sein, dass alle erwarteten Daten-Tags erfasst werden und die übertragenen Daten keinerlei Lücken zwischen den Messwerten aufweisen. Denn schleichen sich Fehler bei der pragmatischen Datenqualität ein, sorgen diese bei einer manuellen Analyse oder selbst bei einfachen Datenberechnungen beziehungsweise Datenmodellen unmittelbar für falsche Ergebnisse. Definierte Standards und eine konsequente Überwachung können dabei helfen, Administratoren über potenzielle Probleme zu informieren.

Allgemein gültige Standards für die Datenerfassung

Für die Erfassung von OT-Daten aus industriellen Steuerungssystemen lassen sich vielerlei Parameter definieren, wie diese erfasst werden. Falsche Entscheidungen können deren Nutzen jedoch nachhaltig beeinträchtigen. Genau deshalb braucht es festgelegte Standards für die Datenerfassung, die im Hinblick auf die spätere Verwendung der Daten sorgfältig entwickelt und definiert werden müssen. Die folgenden Einstellungen sollten Sie dabei idealerweise mit berücksichtigen:

Erfassungsrate: Die Raten der Datenübertragung in industriellen Steuerungssystemen werden in Hertz (Hz) oder Zyklen pro Sekunde angegeben. Moderne Systeme, die für die Erfassung von OT-Daten ausgelegt sind, verfügen über entsprechende Einstellungen zur Anpassung dieser Rate. Typischerweise beträgt die Erfassungsrate ein Hz. Es gibt jedoch Situationen, in denen die gewünschte Rate auch höher oder niedriger ausfallen kann.

Ausnahmen: In Systemen lassen sich auch Ausnahmen festlegen. Um genau zu definieren, wann Daten aufgezeichnet (gespeichert) werden und wann nicht. Die dabei erfassten Werte, werden bei analogen Daten-Tags in der Regel mit bis zu vier Dezimalstellen aufgezeichnet. Unter bestimmten Umständen ist solch eine Genauigkeit aber gar nicht nötig, weshalb es durchaus Sinn ergibt, Ausnahmen für die Erfassungsrate festzulegen. So könnten beispielsweise bei Druckmessungen nur jene Daten erfasst werden, die einen bestimmten Schwellenwert erreichen, zum Beispiel zwei psi oder zwei bar. Ebenso müsste für einen Schalter in der "Aus"-Position nicht jede Sekunde ein Wert von "0" aufgezeichnet werden. Dieser Daten-Tag ließe sich also auch so einstellen, dass nur bei einer Änderung dieses Werts Informationen festgehalten werden.

Minimale Erfassungsrate: Zumeist sind pragmatische Datenqualitätsmängel gut versteckt. Ist die Erfassungsrate des Daten-Tags wie beschrieben so eingestellt, dass nur bei einer Wertänderung etwas aufgezeichnet wird, sind Fehler bei der Datenerhebung nicht immer sofort ersichtlich. Daher ergibt es Sinn, eine Mindesterfassungsrate festzulegen. Auf diese Weise lässt sich sicherstellen, dass ein Daten-Tag noch aktiv ist. Zudem empfiehlt es sich, für diese Tags eine Mindestrate von vier Stunden festzulegen. Dadurch wird das System angewiesen, den Wert unabhängig davon aufzuzeichnen, ob dieser sich geändert hat oder nicht, solange der Daten-Tag noch aktiv ist.

Überwachung der für die Datenerfassung zuständigen Systeme

Eine weitere Möglichkeit für die Gewährleistung einer hinreichenden Datenqualität ist die Überwachung der für die Datenerfassung zuständigen Systeme. Daran können gleich mehrere Komponenten beteiligt sein, zum Beispiel Schnittstellen, Tunneller und Gateways sowie die Verarbeitung und Speicherung von Daten. Manchmal müssen aufgrund von Schnittstellenbeschränkungen gleich mehrere Instanzen der Schnittstelle eingerichtet werden, um alle gewünschten Daten-Tags zu erfassen. Jede dieser Komponenten kann ausfallen, häufig, ohne dass es überhaupt bemerkt wird. Aus diesem Grund empfiehlt es sich, Dashboards in Ihr System zu integrieren, um den Status jedes einzelnen Tools jederzeit überwachen zu können.

Wenn Sie sich die Zeit nehmen, entsprechende Standards für die Datenerfassung festzulegen, wird sich dieser Aufwand langfristig für Sie auszahlen. In Kombination mit der Systemüberwachung werden all diese Standards dazu beitragen, dass Ihre pragmatische Datenqualität dauerhaft akzeptabel ist.

Ergo: Mehr Skalierbarkeit bedeutet nachhaltigen ROI

Leider wird die Datenqualität bei einer geplanten oder bereits gestarteten digitalen Transformation nur selten berücksichtigt. Vielmehr liegt der Schwerpunkt auf der Erstellung von Modellen für die Datenverarbeitung beziehungsweise -berechnung, um möglichst schnell einen Return on Investment (ROI) zu erzielen. Das ist jedoch ein zweischneidiges Schwert. Denn wenn von Anfang an eine schlechte Datenqualität den Erfolg der geplanten Maßnahmen beeinträchtigt, sorgt das früher oder später für Mehraufwand, um die vorprogrammierten Probleme wieder zu beheben. Nehmen Sie sich also die nötige Zeit, die in diesem Artikel angesprochenen Punkte schrittweise anzugehen. Denn nur so gelingt Ihnen die reibungslose Implementierung digitaler Lösungen. Profitieren Sie von mehr Skalierbarkeit und kommen Sie in den Genuss eines tatsächlich nachhaltigen ROI.

Sie möchten gerne weiterlesen?