Der Weg zur industriellen Autonomie wird und muss ein schrittweiser sein. Eine zunehmende Autonomie bedeutet gleichzeitig den Rückgang der menschlichen Intervention. Wurden Entscheidungen bisher vielfach auf Basis von Erfahrungen gefällt, rückt nun eine weitere Entscheidungsgrundlage stärker in den Fokus: Daten. Deren Verwendung ist also erst einmal nichts Neues. Allerdings sind die Anforderungen an die Qualität der Daten ganz andere, sollen sie für einen autonomen Betrieb verwendet werden.
Daten fallen inzwischen in immer größeren Mengen an und durch die Digitalisierung und dem IIoT wird deren Menge weiter zunehmen. Ebenso steigt die Bedeutung der Daten für die Geschäftsprozesse der Unternehmen. Wurden Daten früher in einzelnen Datenbanken anwendungsspezifisch gespeichert, wird es zukünftig nicht mehr ohne die Vernetzung und gemeinsame Auswertung gehen. Big Data-Analysen bieten vielfache Möglichkeiten, die Daten unterschiedlichster Typen miteinander zu verknüpfen, um neue Business Modelle zu generieren oder Prozesse effektiver und sukzessive autonomer zu gestalten.
Jetzt mit einem Klick auf die Grafik für das Webinar registrieren!
Kostentreiber mangelnde Datenqualität
Die Qualität der Daten bezieht sich entsprechend nicht nur auf den Datensatz an sich, sondern auch auch auf die Durchlässigkeit über alle Geschäftsbereiche eines Unternehmens hinweg sowie deren Abstimmung auf unterschiedliche Anwendungsfälle und ihre Darstellung. Selbstverständlich sollte dies alles unter Einhaltung der Datensicherheit und aller rechtlichen Vorgaben geschehen. Führt man sich diese Komplexität vor Augen, ist es nicht verwunderlich, dass nach wie vor viele datengetriebene Projekte extrem kostenintensiv sind oder gar scheitern.
Kosten entstehen gleich zu Beginn durch den hohen Aufwand, notwendige Daten zusammenzustellen und in die für die Auswertung notwendige Form und Qualität zu überführen. Liegen gar falsche Daten zugrunde oder fehlen relevante Informationen, ist die Gefahr von Fehlbewertungen groß. Im weiteren Verlauf entstehen zusätzliche Kosten durch Online-Implementierung datengetriebener Anwendungen in ungeeigneten Infrastrukturen. Von der Pflege solcher Systeme einmal ganz abgesehen. Der Aufwand mag bei einzelnen Projekten gegenüber dem Umbau einer kompletten Datenverwaltung vertretbar sein. Eine weitreichende Autonomie von Systemen ist hiermit aber nicht erreichbar.
Bereitstellung der notwendigen Infrastruktur
Der 3B Reifegrad Benchmark des Singapore Economic Development Boards auf Basis des Smart Industry Readiness Index (SIRI) verdeutlicht die Bedeutung der Datenverfügbarkeit für Unternehmen sehr anschaulich. Ein SIRI Assessment beleuchtet zentrale Bereiche eines Unternehmens hinsichtlich ihres Industrie 4.0-Reifegrads. Während die Abstände zwischen den drei betrachteten Gruppen “Bottom Performers”, “Broad Middle” und “Best-In-Class” in allen Bereichen relativ konstant sind, sticht die Kategorie Datenkonnektivität deutlich hervor. Hier sind die führenden Unternehmen insbesondere hinsichtlich der Vernetzung der Produktion deutlich weiter als die beiden anderen Vergleichsgruppen. Alle Komponenten und Computersysteme sind interoperabel und sicher vernetzt. Die Kommunikation erfolgt dabei weitestgehend in Echtzeit.
Vor anderen Aktivitäten wie der vertikalen und horizontalen Integration oder des Einsatzes intelligenter Systeme haben die Unternehmen vorrangig in die Bereitstellung der notwendigen Infrastruktur investiert. Denn sichere und schnelle Interoperabilität über alle Ebenen hinweg ist genau wie die Datenqualität Grundvoraussetzung für autonome Systeme.
Kostentreiber hohe Datenqualität?
Oft schrecken der Aufwand und auch die Kosten jedoch ab. Ist also die Sicherstellung einer hohen Datenqualität ebenfalls ein Kostentreiber? Schauen wir uns einmal die andere Seite an. Intelligente – datengetriebene Systeme dienen in erster Linie dem Ziel, Einsparungen zu erzielen. Einsparungen stehen also in direktem Zusammenhang mit den in der Anwendung genutzten Daten. Auf eine einfache Formel gebracht, bedeutet dies: Je größer die Einsparungen sind, desto höher ist auch der Wert der Daten. Und: Je höher die Datenqualität ist, desto besser ist die Anwendung und damit höchstwahrscheinlich auch die Einsparungen. Auf diese Weise ist eine Bilanzierung der Kosten für die Bereitstellung der Daten gegenüber den Erlösen aus ihrer Verwertung möglich. Eine hohe Datenqualität ist also kein Kostentreiber. Vielmehr stellt sie einen Wert dar, der die Kosten zu deren Bereitstellung kompensieren sollte. Es lohnt sich also, in eine gute Datenqualität zu investieren. Denn auf dem Weg in die industrielle Autonomie wird diese unerlässlich sein.
Sicherstellung und Aufrechterhaltung
Eine solche Umsetzung sollte immer durch eine gute Data Governance begleitet werden. Nur die Sicherstellung eines umfassenden Rahmenwerks ermöglicht die Aufrechterhaltung einer guten Datenqualität nebst deren Pflege, Schutz, Sicherheit und Complience. Unternehmensweite Richtlinien und zentral organisiertes Data Management mit einheitlichen Prozessen und Methoden helfen, die Dateninfrastruktur zu systematisieren. Und damit einen kontinuierlichen Prozess zu schaffen, durch den auch die Kosten planbar und somit ins Voraus bilanzierbar werden.
Jetzt mit einem Klick auf die Grafik für das Webinar registrieren!
Willkommen auf der digitalen Überholspur: OpreX Managed Service