Peter Zornio, Chief Technology Officer (CTO), Emerson
Auf der NAMUR-Hauptsitzung 2024 präsentierte Emerson mit Boundless Automation℠ eine Vision, wie eine softwarezentrierte Automatisierungs- und Betriebsarchitektur der Zukunft aussehen könnte. Peter Zornio, Chief Technology Officer (CTO), von Emerson, erläuterte im Interview am Nachmittag des ersten Kongresstages, warum eine standardisierte Dateninfrastruktur dafür unerlässlich ist und warum das Konzept die Verschmelzung von IT und OT vorantreiben kann.
Herr Zornio, mit welchen Erwartungen sind Sie zur NAMUR-Hauptsitzung gereist, und vor allem, haben sie sich erfüllt?
Ich erwartete eine gesunde Debatte und Diskussion über verschiedene technische Themen in der Automatisierungswelt mit führenden Automatisierungsfachleuten. Wir haben in unserer Keynote unsere Ideen präsentiert und gezeigt, wie sie mit den NAMUR-Konzepten übereinstimmen. Auch haben wir damit gerechnet, dass die Teilnehmer Feedback geben würden oder möglicherweise sogar andere Standpunkte vertreten. Ich schätze diese Art des Austauschs sehr, denn es ist die beste Art von Feedback zu unserer Produktausrichtung, die wir bekommen können. Ich bin nun schon seit fast 40 Jahren in dieser Branche tätig und wurde nicht enttäuscht.
Wie nehmen Sie als CTO mit Sitz in den USA die Aktivitäten der NAMUR wahr?
Die chemische und pharmazeutische Industrie ist für Emerson sehr wichtig, und die NAMUR ist eine der bedeutendsten internationalen Organisationen, wenn es um die Belange dieser Branche geht. Sie ist nicht mehr nur auf Deutschland fokussiert, sondern hat eine starke Präsenz in ganz Europa, China und den USA. Deshalb war es für Emerson so wichtig, diese Veranstaltung zu sponsern und diesem hochqualifizierten Publikum unsere Ideen zu präsentieren und zu zeigen, was wir für die Anwender von Automatisierungstechnik tun können. Es gibt wirklich keine andere Anwendergemeinschaft in den von uns bedienten Branchen, die sich so direkt mit Standards und Konzepten rund um die Automatisierung beschäftigt.
Ein wunderbarer Übergang, denn Sie haben mit Boundless Automation℠ ein neues, offenes Automatisierungskonzept vorgestellt. Was genau verbirgt sich dahinter?
Boundless Automation℠ erweitert und verändert die Automatisierungsarchitektur und die Art und Weise, wie wir in Zukunft mit Daten umgehen. Von neuen Betriebstechnologien bis hin zur Datenaggregation und -verarbeitung umfasst das Konzept neue Ideen, die den Anwendern letztlich helfen, ihre betrieblichen Systeme noch besser zu verstehen und sie entsprechend zu optimieren. Einige der Kernideen, auf denen Boundless Automation℠ basiert, sind die software-definierte Steuerung, die stärkere Nutzung von Cloud-Technologien, ein neues Sicherheitsparadigma und die Erweiterung des Umfangs der integrierten Software-Suite für den Betrieb über das heutige DCS hinaus durch eine sogenannte Unifying Data Fabric.
Was ist das Besondere an dieser neuen standardisierten Datenstruktur?
Daten waren schon immer wichtig, auch in analogen Zeiten. Und schon immer ging es darum, bestimmte Kennzahlen zu verbessern, etwa die Produktivität oder die Anlagenverfügbarkeit. Bisher war es jedoch oft so, dass verschiedene Bereiche wie Instandhaltung oder Sicherheit ihre eigene Software auswählten oder erstellten. Diese Softwares fütterten sie dann mit den spezifischen Daten, die diese Tools benötigten, in der Regel rund um dieselben Anlagen oder Prozesse. Damit andere auf diese Daten zugreifen konnten, mussten dann oft mit großem Aufwand neue Verbindungen aufgebaut werden. Das Ergebnis sind heute viele verschiedene Systeme, die alle spezifische Daten benötigen und sammeln.
Mit anderen Worten: klassische Datensilos.
Genau, und dieser Effekt wurde durch die digitale Transformation in gewisser Weise sogar noch verstärkt, weil jeder Bereich und jede Geschäftseinheit dann den besten und schnellsten Weg suchte, um zum Ziel zu kommen. Dies geschah ohne jede böse Absicht, sondern einfach, weil es notwendig und sinnvoll war. Dabei sind viele verschiedene Datenmodelle entstanden, die individuell für bestimmte Zwecke entwickelt wurden.
...und leider nicht „die gleiche Sprache“ sprechen.
Was in einem System „Wasserpumpe 1“ ist, kann in einem anderen „FIC105“ sein und in einem dritten etwas anderes. Und genau diese Vielfalt in den Datenmodellen und den Daten selbst ist die größte Hürde, vor der die chemische und pharmazeutische Industrie derzeit steht, wenn sie versucht, die Abläufe in den verschiedenen Funktionsbereichen zu optimieren, zu denen jetzt auch Nachhaltigkeitsziele gehören. Aus diesem Grund legt Boundless Automation℠ großen Wert auf die Daten, um eine größere Konsistenz und Standardisierung zu gewährleisten.
Das ist mit den Daten, die in Zukunft aggregiert werden, sicherlich einfacher als mit den riesigen Data Lakes, die bereits existieren und auf die verschiedene Tools bereits zugreifen, oder?
Gerade in der Verfahrenstechnik ist dies eine der größten Herausforderungen, da viele Daten bereits in eine Vielzahl von Anwendungen eingeflossen sind und somit quasi „in Gebrauch“ sind. Die Schaffung einheitlicher Bezeichnungen und damit einer Single Source of Truth, die von allen Systemen genutzt werden kann, ist eine schwierige Aufgabe. Viele hoffen derzeit, dass Künstliche Intelligenz diese Arbeit in wesentlich kürzerer Zeit für uns erledigen kann. Emerson arbeitet auch mit verschiedenen Start-Ups zusammen, um diese Entwicklung voranzutreiben und letztlich eine KI zu befähigen, die verschiedenen Datenmodelle zu einem übergreifenden, ISA-95-konformen Metamodell zusammenzuführen. Der erste Schritt besteht darin, eine leistungsstarke Datenstruktur zu schaffen, die eine Verbindung zu all diesen Datensilos herstellt und diese Single Source of Truth werden kann.
Die Daten werden dann nicht mehr in einzelnen Silos gespeichert, sondern an einem Ort zentralisiert?
Das wäre aus unserer Sicht ideal. Notwendig ist auch, dass dieses Metamodell viel breiter ist als bestehende Modelle, so dass nicht nur numerische Daten, sondern zum Beispiel auch Dokumente, Schwingungsspektren oder sogar Bilder erfasst werden können. Ein solches Anlagendatenmodell müsste dann auch zentral zur Verfügung stehen, so dass sich alle Systeme das heraussuchen können, was sie individuell benötigen. Dabei wäre es unerheblich, wo sich die ursprüngliche Datenquelle in der Anlage befindet. Sie können dann sogar domänenübergreifende Anwendungen realisieren. Zusammen mit AspenTech entwickeln wir genau solche Automatisierungs- und Optimierungsanwendungen, die von Anfang an „integrated by design“ sind.
Historian-Systeme sind genau für diesen Zweck entwickelt und implementiert worden. Warum sind sie nicht ausreichend?
Richtig, Historians waren ursprünglich für diesen Zweck gedacht, und viele Unternehmen speichern auch weiterhin ihre Produktionsdaten in solchen Systemen und nutzen sie effektiv in bestimmten Anwendungen. Aber gerade wenn es um die Anlagenverfügbarkeit geht, werden nicht nur, wie eben erwähnt, numerische Daten benötigt. Die Boundless Automation℠ und die standardisierte Datenstruktur stellen einen neuen Stand der Technik dar und sollen genau das leisten, was Historians nicht können. Dieses neue Konzept hat auch Emerson selbst geholfen, die Systeme unserer Partner besser zu integrieren.
Aber gerade in der Prozessindustrie ist die analoge Datenübertragung noch sehr verbreitet und die Basis für eine umfassende Digitalisierung ist kaum gelegt. Wie passt das mit der Boundless Automation℠ zusammen, die Sie als „next level of technology“ bezeichnen?
Wir kennen die aktuelle Situation in den Betrieben, wo analoge Signale mit einigem Aufwand in digitale umgewandelt werden. Aber selbst wenn wir alle neuen Anlagen beispielsweise mit Ethernet-APL ausstatten, wird nur ein Bruchteil der installierten Basis APL-fähig sein. Und selbst bei den Greenfield-Projekten der kommenden Jahre wird es nicht so sein, dass 100 % der Geräte APL unterstützen. Das war auch in der Vergangenheit bei den Umstellungen auf andere digitale Technologien so. Deshalb haben wir einen unserer Meinung nach perfekten Migrationspfad entwickelt, bei dem wir APL und analoge Signale in einer einzigen, vor Ort einsetzbaren Architektur kombinieren. Und diese hybride Signalisierung wird wahrscheinlich für lange Zeit bestehen bleiben, um die Felddaten zu erhalten.
Was ist Ihre Lösung für die installierte Basis, die bereits digitale Daten sammelt?
Aus unserer Sicht sind die meisten der in der chemischen Industrie verwendeten Geräte bereits in der Lage, digitale Daten zu liefern. Emerson und viele andere Anbieter haben die Auslieferung von Geräten, die keine digitalen Protokolle wie HART unterstützen, bereits 1995 eingestellt. Ältere Leitsysteme verwenden jedoch immer noch hauptsächlich das analoge Signal. Die digitalen Daten sind dann sozusagen gefangen, weil es keinen Weg aus dem Gerät heraus gibt. Hinzu kommt, dass diese Leitsysteme ihre proprietären Datenmodelle auf die Sensordaten anwenden. Deshalb spielen für uns bestehende standardisierte Datenmodelle wie PA-DIM eine entscheidende Rolle, da sie semantisch aufbereitete Felddaten in Systeme einbinden können. Darüber hinaus haben wir einen Datenserver entwickelt, der es den Anwendern ermöglicht, die erfassten Daten über MQTT direkt in die Cloud zu bringen.
Mit anderen Worten: Sie verlassen sich auf Edge Computing, um die aggregierten Daten nah an der Quelle zu verarbeiten. Dennoch fehlt es immer noch an geeigneten Brücken, um die Daten in die IT-bezogenen Verarbeitungssysteme zu bringen, nicht wahr?
Das ist nicht verwunderlich, wenn man sich die Automatisierungspyramide ansieht, die aufgrund der älteren bestehenden Systeme und Sicherheitsparadigmen noch eine gewisse Gültigkeit hat. Allerdings hat sich hier in den letzten Jahren schon viel getan, auch weil OT und IT immer mehr zusammenwachsen. Wir sehen heute, dass IT-Spezialisten stark in OT-Themen involviert sind und umgekehrt. Es gibt eine Menge Brückenbauer, aber die Bereitstellung von Daten für die IT-Systeme ist nur der erste Schritt.
Was kommt als Nächstes?
Als Branche müssen wir weiterhin Technologien nutzen, die ursprünglich mit der IT in Verbindung gebracht wurden, wie z. B. die Cloud oder Protokolle wie MQTT oder JSON, sowie Rechenumgebungen wie Container am Rande des Netzes. Dies ist wichtig für die Daten, die für die umfassendere Aufgabe der Optimierung auf Unternehmensebene über alle Funktionsbereiche hinweg wichtig sind: Sicherheit, Produktion, Zuverlässigkeit und Nachhaltigkeit.
Wird die IT/OT-Verschmelzung auch der Treiber sein, der die digitale Transformation jetzt noch einmal neu befeuert?
Meiner Meinung nach treibt die Cybersicherheit wahrscheinlich die meisten Investitionen und Maßnahmen an. Sie ist für viele Upgrades in der OT-Welt verantwortlich, denn in der Hierarchie der Bedürfnisse steht der sichere Betrieb über dem optimierten Betrieb. Der Einfluss der IT-Abteilung führt zu einer zunehmenden „Stay-current-tostay-secure“ („Sicherheit durch Aktuali-tät“)-Mentalität. Diese Einstellung ist in der OT nicht unbedingt weit verbreitet. Vereinfacht gesagt herrscht dort eher die Mentalität „Wenn es nicht kaputt ist, repariere es nicht“. Aber die Unternehmen müssen beides tun: sicher und optimiert arbeiten.
Hat die Konvergenz von IT und OT hier nicht schon viel bewirkt?
Der letzte „große Sprung“ bei der Integration von OT- und IT-Technologien, die sich übrigens funktional immer unterscheiden werden, fand statt, nachdem die OT in den 1990er Jahren auf die gleiche technologische Basis wie IT umgestellt wurde – WinTel, Ethernet-Netzwerke usw. Das machte es zumindest einfacher, ein gewisses Maß an Integration mit Hilfe von Protokollen wie OPC, dem immer noch am weitesten verbreiteten in der Automatisierungsbranche, herzustellen. Aber die Umwandlung der Daten war immer noch eine große Aufgabe, wie wir bereits besprochen haben, und wurde zur größten Hürde jedes Integrationsprojekts. Die IT-Softwareinfrastruktur hat sich allerdings weiterentwickelt. Heute gibt es die Cloud, neue Datenaustauschstandards, Container, SaaSModelle, Edge-Technologie und vieles mehr. Die Einbeziehung dieser Technologien und das Überdenken einer dauerhaften, universellen Lösung für die Datenintegration, wie wir sie hier erörtert haben, sind erforderlich, um wirklich das zu erreichen, was viele als „digitale Transformation“ ihres Unternehmens betrachten.
Was ist notwendig, damit diese Transformation auch wirklich gelingt?
Wir brauchen mehr IT-Mentalität auch im Automatisierungssystem selbst. Ein modernes Distributed Control System (DCS) läuft, abgesehen von der Steuerungssoftware, ausschließlich auf offenen Plattformen. Es ist daher heute nichts anderes als „ein weiteres kritisches IT-System“, wie das Enterprise Resource Planning (ERP), wenn auch in der Regel eine ältere offene Technologie. Und obwohl offene Technologie die Grundlage für DCS ist, behandeln wir es nicht wie ein IT-System, sondern eher wie eine physische Pumpe. Diese Denkweise muss sich ändern.
Tut sie das nicht schon, weil die Automatisierung heute zunehmend softwaregesteuert ist?
Ja, aber das geschieht immer noch zu langsam, auch wenn bei Emerson inzwischen neun oder mehr Software-Entwickler auf einen Hardware-Designer kommen. Leider sehe ich immer noch oft, dass man von DCS spricht und dann Bilder von Steuerungshardware zeigt. Reine Software-Automatisierung über Standardplattformen ist aber sicher kein Selbstläufer, denn hardwarebasierte Systeme haben ihre Vorteile, vor allem was Latenz und Verfügbarkeit angeht. Deshalb setzen wir auf Edge- und containerisierte Lösungen zur Unterstützung der Boundless Automation℠, die voraussichtlich ab März 2025 verfügbar sein werden.
Werden dadurch hardwarebasierte Steuerungssysteme obsolet?
Nein, die meisten Anwender aus der chemischen Industrie, die hier im Publikum der NAMUR-Hauptsitzung sitzen, werden damit ihre Anlagen nicht steuern. Diesen neuen Systemen fehlt die Redundanz, was letztlich die Anlagenverfügbarkeit und die Latenzzeit gefährdet. Sie sind eher ein erster Schritt und wir gehen davon aus, dass sie es in Zukunft nutzen werden.
Aber warum sollte sich die chemische und pharmazeutische Industrie mit softwaregestützter Automatisierung befassen?
Zunächst einmal geht es darum, den berüchtigten Hardware-Lock-in-Effekt der Hersteller zu vermeiden. Softwarezentrierte Automatisierung verhindert dies effektiv, da sie auf nicht proprietärer Hardware läuft. Außerdem werden die Vorteile des Mooreschen Gesetzes maximiert, da offene Systeme immer auf der neuesten Hardware-Generation laufen und daher immer von mehr Leistung profitieren, als es proprietäre Systeme jemals könnten. Der wichtigste Grund sind jedoch virtuelle Steuerungen und die damit verbundene Flexibilität. Wenn ich mich auf Hardware verlasse, muss ich immer einen neuen Controller kaufen und integrieren, wenn ich mehr Kapazität brauche. Das Hinzufügen einer virtuellen Steuerung hingegen ist eine einfache Softwareaufgabe.