Die Maschinen und das Öl der Zukunft

Könnten Sätze durch übermäßiges Zitieren wegen Überanstrengung zusammenbrechen, der Satz von den Daten als dem Öl der Zukunft gehörte wahrscheinlich zu den hochgradig gefährdeten Kandidaten. Er darf natürlich in keinem Text zu Big-Data-Anwendungen fehlen. Einige IT-Anbieter haben aus ihrer Verfügungsgewalt über gigantische Datenmengen tatsächlich ein lukratives Geschäft gemacht. Daraus haben manche den Schluss gezogen, dass gewaltige Datenmengen an sich schon wertvoll sind, man müsse halt nur noch herausfinden, wie man die darin verborgenen Schätze zu fassen bekommt, denn hier liegt wohl das wahre Potenzial.

Kommen wir zu den Produktionsanlagen. Eine halbwegs moderne Anlage ist heute bis zur vorletzten Schraube mit Sensorik für nahezu jede relevante Messgröße ausgestattet und auch in der Lage die resultierenden Daten mit anderen Systemen auszutauschen. Etwas anders formuliert gibt es ein sehr großes Datenangebot und sie sind in der Rolle desjenigen, der einen nutzenstiftenden Teil davon auswählen soll.

Man kann naturgemäß die Frage nach einer sinnvollen Datenauswahl nicht ohne die Prozess- und Businessperspektive beantworten. Daten, die nicht nachvollziehbar an irgendeiner Stelle einen quantitativen oder mindestens qualitativen Nutzen stiften, sind schlicht uninteressant, da mögen sie noch so „big“ sein.

Die rein technische Seite und der Blick auf das kommunikationstechnisch Mögliche sind dabei selten zielführend. Daten zu sammeln und zu vernetzen um ihrer selbst willen, freut zwar die IT-Dienstleister, führt aber am Ende zu nichts. Man kann natürlich recht einfach den einen oder anderen Data-Lake anlegen, ihn durch eine Vielzahl von Zuflüssen zügig fluten und hoffen, dass ein begnadeter Mathe Magier mit seinen algorithmischen Netzen die dicken Fische darin schon erwischen wird – wenn es sie denn gibt und DAS ist keineswegs gewiss.

Zwei Welten – zwei Geschwindigkeiten

Auf der Seite der technischen Kommunikation trifft auf der Shop Floor-Seite eine Welt der Echtzeitkommunikation mit sehr kurzen Taktzyklen auf eine Business Welt, in der wesentlich längere Zyklen die Regel sind. Diese Welten zu verbinden ist eine anspruchsvolle Aufgabe aber sie ist heute immer leichter lösbar weil viele Lösungsanbieter sich auf diese Grenz- und Übergangsschicht fokussiert haben.

Es ist bei der Vielfalt der Lösungsangebote nicht leicht, so etwas wie einen Best-Practice-Ansatz zu finden. Man kann aber einige technische Elemente benennen, die mit hoher Wahrscheinlichkeit in einer guten Lösung auftauchen. Eine gute Lösung wird versuchen, proprietäre Kommunikationsprotokolle zu vermeiden, d.h. auf die eine oder andere Weise werden die im Internet gebräuchlichen Protokolle eine wesentliche Rolle spielen. Aus der Perspektive des ISO/OSI-Schichtenmodells sind also von unten nach oben IP, UDP, TCP-Socket und HTTP/HTTPS auf der Business-Seite im Spiel. Applikationen werden über REST gefüttert, als Databroker kommen MQTT, OPC/UA, Apache-Kafka o.ä. in Frage. Dann haben wir noch die klassischen Middleware-Funktionen für die Daten- und Nachrichtentransformation in der Werkzeugkiste, am oberen Ende der Nahrungskette sei hier SAP-PI/PO genannt, für kleinere Ansprüche genügt vielleicht sogar Node-Red.

Auf der Shop Floor-Seite bekommen wir es mit einer Vielzahl von Industrieprotokollen und industriespezifischer Infrastruktur zu tun. An dieser Stelle gibt es eine gute Nachricht. Für fast jede Kombination am Übergangspunkt zwischen den Systemwelten gibt es gut skalierbare Gateways, die in Richtung der Business-Systeme alle gebräuchlichen Protokolle und Verfahren beherrschen. Sie müssen eben nur wissen, was sie wollen oder brauchen.

Früher hieß das BDE

Die meisten Unternehmen haben schon mehr oder weniger Erfahrung mit der Verwertung und Gewinnung von Daten aus dem Shop Floor im Rahmen von BDE/MDE-Prozessen. Die automatisierte Erfassung von Messwerten für die Instandhaltung ist auch täglich IT-Brot in vielen Unternehmen. Etwas komplexer und aufwendiger ist das Rezepturmanagement für die Prozessindustrie. Da werden zwischen SAP-System und Prozess-Leitsystemen eben strukturierte Rezeptdaten ausgetauscht. So gesehen und nicht nur so gesehen ist die Anbindung von Maschinen ein alter Hut.

Natürlich ist das Angebot an neuen technischen Möglichkeiten eine Folge des IoT / Industrie 4.0 Hypes. Als Metathema schwebt die Digitalisierung über all diesen Technologien und die einschlägigen Beschwörungen der Marketingabteilungen bewirtschaften dieses Thema unermüdlich. Ich stimme hier ausdrücklich NICHT in den Chor der Digitalisierungs-IoT-Industrie-4.0-Disruptor-Drückerkolonnen ein, die ihnen einreden wollen, dass sie schon morgen als Unternehmen tot umfallen werden, wenn sie nicht sofort in die totale Vernetzung von Allem mit Allem und maschinelles Lernen und Irgendwas-mit-Smart investieren.

Will sie dazu noch jemand in die Cloud locken, schauen Sie genau hin und zwar nicht nur auf die Perspektive fürs Cost-Cutting und glauben Sie in Bezug auf die Sicherheit ihrer Daten und die Verfügbarkeit von Diensten am besten erstmal gar nichts. Für den Schritt in die Cloud ist eine fundierte Risikobewertung von neutraler und fachkundiger Seite unabdingbare Voraussetzung. Andernfalls haben sie vielleicht IT-Kosten gesenkt, aber möglicherweise auch die Überlebens- und Handlungsfähigkeit ihres Unternehmens aufs Spiel gesetzt. Die deutschen KMU agieren da nicht zuletzt aus diesem Grunde zurückhaltend und skeptisch, das ist gut und richtig so.

Maschinen treten natürlich nicht nur als Datenquellen in Erscheinung, sondern ebenso oft als Empfänger. Man könnte eine Anlage ohne Schwierigkeiten u.a. mit allen Daten aus der SAP-PPS versorgen und es ist anzunehmen, dass mit der zunehmenden Integration von Systemen und Prozessen auch immer mehr Daten zur Verfügung stehen, die eine Produktionsanlage auf die eine oder andere Art verwerten kann. Moderne Anlagen können heute mit Plandaten auf der Basis eines mittleren Zeithorizonts schon das eigene Verhalten optimieren.

Eine Anlage „weiß“ dann z.B. einfach, dass sie heute nicht am Limit fahren muss, weil die Plandaten für die nächsten drei Schichten das eben nicht erfordern. Das eröffnet Möglichkeiten für verschleißarmen und energieeffizienten Betrieb einer Anlage. So könnte die Anlage selbst einen Teil des Schedulings übernehmen. Ganz generell ist die Entwicklung moderner Fertigungsanlagen durch einen größeren Spielraum bei der Verteilung und Wahrnehmung von Aufgaben der Fertigungssteuerung gekennzeichnet. Maschinen planen selbstständig, sie steuern Materialflüsse und „sehen“ über den Tellerrand der eigenen Systemgrenzen hinaus. Was früher im MES oder im Leitstand oder auf der Plantafel im Meisterbüro passierte, kann jetzt die Anlage selbst leisten.

Das bietet natürlich datenbasierte Möglichkeiten zur Optimierung, aber niemand sollte sich der Illusion hingeben, diese Möglichkeiten gehörten zu den Low-hanging-fruits, das tun sie nicht. Die Entwicklung von Optimierungsverfahren, ihre mathematische Modellierung und schließlich ihre Implementierung sind ein hochgradig komplexes Unterfangen und das Unterschätzen dieser Aufgabe ist ein Grund für das Scheitern diverser CIM-Initiativen. Da haben auf Seiten der Industrieausrüster inzwischen viele Personen einiges dazugelernt, ob sie es nützlich finden, müssen sie aber immer noch selbst entscheiden.

Vernetzung und Komplexität

Wenn der Grad der Vernetzung einer Systemlandschaft zunimmt, so steigert das auch immer die Komplexität dieser Landschaft. Neue Möglichkeiten bedeuten eine Zunahme der Varietät und damit, Ashbys Law lässt grüßen, auch die Anforderung an die Komplexität der Steuerung des Systems. Einer der CIM-Killer waren die immensen Kosten, die an dieser Stelle verursacht wurden. Die auf der einen Seite durch vernetzte und automatisierte Systeme möglich gewordenen Kostenvorteile fielen regelmäßig den hohen Investitionen in neue Steuerungssystem zum Opfer.

Dieses Symptom ist einer der Angriffspunkte für den Einsatz von Verfahren des maschinellen Lernens. Wenn es unmöglich oder viel zu teuer ist, ein Steuerungssystem zu programmieren, dann gibt es vielleicht andere, KI-gestützte Verfahren, die dazu in der Lage sind.

So oder so gilt, ohne eine klare Vorstellung von den Zielen einer Investition in die Maschinenintegration wird jedes einschlägige Projekt mit Sicherheit scheitern. Die Frage nach einer zielführenden Vision von dem, was da werden soll, ist die wichtigste und die erste, die man sich stellen sollte.

Die neuen Werkzeugkisten der Industrieausrüster und ITler sind gute gefüllt und sehen verheißungsvoll aus, das setzt aber die gute alte Regel nicht außer Karft, dass das Werkzeug zur Aufgabe passen und eine Aufgabe sollte schon auch vorhanden sein. Man schlägt zuhause auch nicht einfach mal so einen Nagel in die Wohnzimmerwand, nur um einen neuen Hammer auszuprobieren, jedenfalls nicht ungestraft. Man kann ja schon mal üben, so mit dem Hammer, werden manche sagen – und dann ist das nächste Problem leider eine Schraube.

Weiters zu diesem Thema finden Sie hier.

– von Mario Lütkebohle, Consultant, itelligence AG –
E-Mail: Mario.Luetkebohle@itelligence.de

Diese Veranstaltungen könnten Sie interessieren

Alle Veranstaltungen

Diese Webinaraufzeichnungen könnten Sie interessieren

Alle Veranstaltungen

Ähnliche Beiträge

image blog digitale welt
Lesen Sie mehr
Lesen Sie mehr
Bild zuverlässige Absatzprognosen
Lesen Sie mehr
Blog Image Digitale Transformation
Lesen Sie mehr
Lesen Sie mehr
Lesen Sie mehr

Kontakt
Kontakt

Sie haben Fragen? Kontaktieren Sie uns gerne.