13.05.2016

Einfach, offen und standardisiert

Beckhoff-Lösungen für Industrie 4.0 und IoT

Durch die zunehmende Konvergenz von IT- und Automatisierungstechnologien werden Cloud-basierte Kommunikations- und Datendienste zunehmend auch in industriellen Steuerungsprojekten eingesetzt. Als Erweiterung klassischer Steuerungsaufgaben ermöglichen Anwendungen wie Big Data, Datamining und Condition- oder Power-Monitoring überlegene, zukunftsweisende Automatisierungslösungen. Für eine möglichst einfache Umsetzung sorgen die neuen Produkte von Beckhoff für Industrie 4.0 und IoT.


Analyse auf der Steuerung oder dem Server
Bild: Beckhoff Automation GmbH & Co. KG

Industrie-4.0- und Internet-of-Things-Konzepte stellen hohe Anforderungen an die Vernetzung und Kommunikation von Geräten und Diensten. Aus Sicht der klassischen Kommunikationspyramide werden hierbei große Datenmengen zwischen den Sensoren und höhergelegenen Schichten ausgetauscht. Aber auch die horizontale Kommunikation von SPSen untereinander spielt eine wichtige Rolle in jeder modernen Produktionsstätte. PC-basierte Steuerungstechnologien stellen hierfür eine essentielle Grundlage dar und sind aus heutigen Automatisierungsprojekten nicht mehr wegzudenken. Mit dem neuen Twincat IoT stellt die Engineering- und Steuerungs-Software Twincat 3 die Basistechnologie für Industrie-4.0-Konzepte und die IoT-Kommunikation zur Verfügung. Auch die neuen IoT-kompatiblen Beckhoff I/O-Komponenten ermöglichen eine einfach zu konfigurierende und nahtlose Integration in Public- und Private-Cloud-Anwendungen.

Definition von Geschäftszielen bringt Wettbewerbsvorteil

Industrie 4.0 und Internet of Things (IoT) beginnen jedoch nicht erst bei der jeweils zu verwendenden Technologie, sondern schon viel früher. Bei der Implementierung von IoT-Projekten ist es von entscheidender Bedeutung zunächst einmal die eigenen Geschäftsziele zu prüfen, d.h. den Vorteil herauszuarbeiten, den man als Unternehmen aus einem solchen Projekt gewinnen möchte. Aus Sicht eines Automatisierungsherstellers können hierbei sicherlich zwei unterschiedliche Kategorien von Kunden definiert werden: der Maschinenbauer und dessen Endkunden, also der Anwender der automatisierten Maschinen. Gerade im Falle des produzierenden Gewerbes ist man natürlich daran interessiert, die eigenen Produktionskosten zu senken, z.B. durch eine effiziente und zuverlässige Produktionssteuerung oder ggf. auch durch die Reduzierung von produzierter Ausschussware. Der klassische Maschinenbauer verfolgt ganz ähnliche Ziele und ist zunächst einmal daran interessiert seine Maschine bei gleichbleibender oder sogar steigender Qualität günstiger herzustellen. Dabei können natürlich auch Themen wie die Optimierung des Energieverbrauchs und der Produktionszyklen einer Maschine oder auch eine vorausschauende Wartung und Fehlerdiagnose im Vordergrund stehen. Gerade die letzten beiden Punkte bieten dem Maschinenbauer eine gute Grundlage zur Etablierung von Dienstleistungen, die sich als zusätzliches Geschäftsmodell dem Endkunden anbieten lassen. Letzten Endes geht es bei beiden Kundenkategorien natürlich darum, die Maschine bzw. das eigene Produkt attraktiver zu gestalten und die Wettbewerbsfähigkeit am Markt zu erhöhen.

Sammlung, Aggregation und Analyse von Prozessdaten

Eine gute Grundlage zur Schaffung eines solchen Mehrwerts und zum Erreichen solcher Geschäftsziele bieten die im Produktionsprozess verwendeten Prozessdaten. Hierzu zählen die vom Sensor aufgenommenen und dann über einen Feldbus in die SPS übertragenen Werte einer Maschine. Diese Daten können zur Zustandsüberwachung einer Anlage mit Hilfe der in die Steuerungs-Software Twincat 3 integrierten Twincat-Condition-Monitoring-Bibliotheken direkt auf der Steuerung analysiert werden, wodurch sich Stillstandszeiten und Wartungskosten reduzieren lassen. In Produktionsbereichen mit mehreren verteilten Steuerungen ist eine Analyse der Daten einer einzelnen Steuerung jedoch nicht immer ausreichend. Oftmals benötigt man die aggregierten Daten von mehreren oder gar allen Steuerungen einer Produktionsanlage oder eines bestimmten Maschinentyps, um eine Datenanalyse vornehmen und eine analytische Aussage über das Gesamtsystem treffen zu können. Dafür wird jedoch die entsprechende IT-Infrastruktur benötigt. Bisherige Implementierungen sahen hier den Einsatz eines zentralen Serversystems vor, das im Maschinen- oder Unternehmensnetzwerk etabliert und mit einem Datenspeicher, oftmals in Form eines Datenbanksystems, ausgestattet wurde. Eine Analyse-Software konnte dann direkt auf die aggregierten Daten in der Datenbank zugreifen und entsprechende Auswertungen durchführen. Obwohl eine solche Vorgehensweise zur Realisierung einer Datenaggregation und -analyse in der Produktionsstätte sicherlich gut funktionierte, stellten sich jedoch gleich mehrere Probleme ein: Denn die notwendige IT-Infrastruktur musste zunächst einmal zur Verfügung gestellt werden. Dass hierbei hohe Hard- und Software-Kosten für das entsprechende Serversystem entstehen, ist sicherlich sofort einsehbar. Aber auch der personelle Aspekt ist nicht zu vernachlässigen. Durch eine steigende Komplexität bei der Vernetzung der Produktionsanlagen, gerade bei vielen verteilten Produktionsstandorten, benötigt man auch das entsprechende Personal, das eine Implementierung überhaupt durchführen kann. Erschwerend kommt hinzu, dass die Skalierbarkeit einer solchen Lösung sehr gering ist. Schließlich sind irgendwann die physikalischen Grenzen des Serversystems erreicht, sei es die zur Verfügung stehende Menge an Speicher oder auch die für Analysen notwendige CPU-Leistung bzw. Arbeitsspeichergröße. Bei erforderlichen Anlagenerweiterungen um neue Maschinen bzw. Steuerungen hatte dies häufig größere, manuelle Umbauarbeiten zur Folge. Schließlich musste das zentrale Serversystem mitwachsen, um das zusätzliche Datenaufkommen handhaben und verarbeiten zu können.

Der Weg in die Public Cloud

Cloud-basierte Kommunikations- und Datendienste versuchen nun die genannten Nachteile zu vermeiden, indem sie dem Anwender eine abstrahierte Sichtweise auf die zugrunde liegenden Hard- und Software-Systeme zur Verfügung stellen. Abstrahiert bedeutet hierbei, dass ein Anwender sich bei der Nutzung eines Dienstes keinerlei Gedanken um das jeweilige Serversystem machen muss. Er muss sich lediglich um die jeweilige Dienste-Nutzung kümmern. Sämtliche Wartungs- und Pflegearbeiten der IT-Infrastruktur werden seitens des Anbieters eines Cloud-Systems durchgeführt. Solche Cloud-Systeme lassen sich in die Begriffe Public und Private Cloud unterteilen. Die sogenannten Public Cloud Service Provider, wie z.B. Microsoft Azure oder Amazon Web Services (AWS), stellen dem Anwender diverse Dienste aus den eigenen Rechenzentren zur Verfügung. Dies beginnt bei virtuellen Maschinen, in denen der Anwender selbst die Kontrolle über das Betriebssystem und die darauf installierten Anwendungen hat, und reicht bis hin zu abstrahierten Kommunikations- und Datendiensten, die vom Nutzer in eine Applikation integriert werden können. Letztere beinhalten z.B. auch den Zugriff auf Machine-Learning-Algorithmen, die auf Basis bestimmter Maschinen- und Produktionsinformationen Voraussagen und Klassifizierungen hinsichtlich gewisser Datenzustände treffen können. Die notwendigen Inhalte hierfür erhalten die Algorithmen mit Hilfe der Kommunikationsdienste. Solche Kommunikationsdienste basieren üblicherweise auf Kommunikationsprotokollen, die auf dem Publish/Subscriber-Prinzip basieren. Dies bringt durch eine hierdurch entstehende Entkopplung aller miteinander kommunizierenden Applikationen durchaus Vorteile mit sich. Zum einen müssen sich alle Kommunikationsteilnehmer nicht mehr untereinander kennen, d.h. eine ggf. aufwendige Bekanntgabe von Adressinformationen wird reduziert. Alle Applikationen kommunizieren über den zentralen Cloud-Dienst. Zum anderen handelt es sich bei der Datenkommunikation mit dem Cloud-Dienst, dem sogenannten Message Broker, aus Sicht des Endgeräts um eine rein ausgehende Kommunikationsverbindung - egal ob Daten gesendet (Publish) oder empfangen (Subscribe) werden. Die sich dadurch ergebenden Vorteile bei der Konfiguration der IT-Infrastruktur sind offensichtlich: Es müssen keinerlei eingehende Kommunikationsverbindungen konfiguriert werden, z.B. in Firewalls oder anderen Netzwerkendgeräten. Dies reduziert die Einrichtungs- und Wartungskosten seitens der IT-Infrastruktur erheblich. Bei den für die Datenkommunikation verwendeten Transportprotokollen handelt es sich um sehr schlanke und standardisierte Protokolle, wie z.B. MQTT und AMQP. Zudem sind hierin auch diverse Sicherheitsmechanismen verankert, z.B. die Verschlüsselung der Datenkommunikation und die Authentifizierung gegen den Nachrichten-Broker. Das standardisierte Kommunikationsprotokoll OPC UA hat den Mehrwert eines Publish/Subscribe-basierten Kommunikationsszenarios ebenfalls erkannt und entsprechende Schritte eingeleitet, um dieses Kommunikationsprinzip in die Spezifikation zu integrieren. Somit wird zusätzlich zu MQTT und AMQP ein weiterer Standard als Transportmechanismus bis in die Cloud zur Verfügung stehen.

Empfehlungen der Redaktion

Die Private Cloud

Solche Publish/Subscribe-Mechanismen lassen sich jedoch nicht nur in Public-Cloud-Systemen, sondern auch im Unternehmens- oder Maschinennetzwerk nutzbar machen. Im Falle von MQTT und AMQP kann die hierfür benötigte Infrastruktur in Form eines sogenannten Message Brokers ganz einfach auf einem beliebigen PC installiert und zur Verfügung gestellt werden. Dadurch lassen sich sowohl M2M-Szenarien als auch die Anbindung von beliebigen Endgeräten, wie z.B. Smartphones, an die Steuerung realisieren. Außerdem wird der Zugriff auf diese Geräte durch Firewall-Systeme weiter abgesichert. Auch die Erweiterungen der OPC-UA-Spezifikation hinsichtlich Publish/Subscribe vereinfachen zukünftig die Konfiguration und Nutzung von 1:N-Kommunikationsszenarien innerhalb eines Maschinennetzwerkes.

Produkte für Industrie 4.0 und IoT

Beckhoff stellt dem Anwender diverse Komponenten für eine einfache und standardisierte Integration in Cloud-basierte Kommunikations- und Datendienste zur Verfügung. Die IoT-Produkte innerhalb der Automatisierungs-Software Twincat 3 bieten diverse Funktionalitäten, um Prozessdaten über standardisierte Publish/Subscribe-basierte Kommunikationsprotokolle auszutauschen und auf spezielle Daten- und Kommunikationsdienste von Public Cloud Service Providern zuzugreifen. Entsprechende Dienste können in Public-Cloud-Systemen, wie Microsoft Azure oder Amazon Web Services (AWS) gehostet werden, aber ebenso gut in Private-Cloud-Systemen zum Einsatz kommen. Der Zugriff auf diese IoT-Funktionen kann wahlweise über spezielle Funktionsbausteine direkt aus dem Steuerungsprogramm heraus erfolgen oder über eine 'Twincat IoT Data Agent' genannte Applikation außerhalb des Steuerungsprogramms konfiguriert werden. Die zu übermittelnden Prozessdaten lassen sich auf einfache Art und Weise über einen grafischen Konfigurator selektieren und für den Transfer an einen bestimmten Dienst konfigurieren. Ein großer Vorteil hierbei ist, dass der Data Agent auch die Integration von Cloud-basierten Diensten in ältere, bereits existierende Twincat-Anlagen ermöglicht. Weiterhin kann das Auslesen der Prozessdaten hierbei auch über das standardisierte Kommunikationsprotokoll OPC UA erfolgen, sodass Daten von Nicht-Beckhoff-Systemen ebenfalls verwendet werden können. Eine zusätzlich erhältliche Smartphone App ermöglicht die mobile Anzeige von Alarm- und Statusmeldungen einer Maschine. Geht es um die direkte Weiterleitung von I/O-Signalen ohne Steuerungsprogramm, so lassen sich über den IoT-Buskoppler EK9160 von Beckhoff die I/O-Daten über eine einfach zu konfigurierende Website auf dem Gerät für den Versand an einen Cloud-Dienst parametrieren. Der Buskoppler übernimmt dann eigenständig den Versand der digitalen oder analogen I/O-Werte an den Cloud-Dienst. Eine IoT-Kopplerstation besteht hierbei aus einem EK9160 und einer nahezu beliebigen Anzahl an leistungsfähigen und schnellen Ethercat-Klemmen. Die an den Cloud-Dienst wahlweise auch verschlüsselt übertragenen Daten werden in einem anwenderfreundlichen und standardisierten JSON-Format versendet. Erweiterte Mechanismen, wie ein lokales Buffering der I/O-Daten im Falle einer unterbrochenen Internetverbindung, stehen hierbei genauso zur Verfügung wie das Monitoring von angeschlossenen Feldbussen. Somit können die I/O-Signale nicht nur über Ethercat, sondern z.B. auch über CANopen oder Profibus eingesammelt werden.

Analytics und Machine Learning

Sind die Daten erst einmal an einen Public- oder Private-Cloud-Dienst verschickt worden, so stellt sich als nächstes die Frage, in welcher Art und Weise man die Daten nun weiterverarbeitet. Wie bereits erwähnt gibt es bei vielen Public-Cloud-Anbietern diverse Analytics- und Machine-Learning-Dienste, die für eine Weiterverarbeitung der Prozessdaten verwendet werden können. Beckhoff verfügt auch über eine eigene Analytics-Plattform, namens Twincat Analytics. Sie stellt einschlägige Mechanismen zur Datenanalyse bereit, wobei alle prozessrelevanten Daten einer Maschine zyklusgenau erfasst werden. Dadurch entsteht eine vollständige Mitschrift der kompletten Maschinenabläufe. Je nach Bedarf können diese Daten dann entweder lokal auf dem Maschinenrechner oder innerhalb einer Public- oder Private-Cloud-Lösung gesammelt und ausgewertet werden. Twincat Analytics verwendet Twincat IoT zur Anbindung an die Cloud-Lösungen, sodass eine nahtlose Datenkommunikation gegeben ist. Insgesamt ergeben sich für den Maschinenbauer und dessen Endkunden hierdurch viele neue Geschäftsideen und -modelle.

Fazit

Industrie 4.0 und IoT sind in aller Munde. Zur Realisierung von neuen Geschäftsmodellen benötigt man ebenso innovative Anforderungen an die zugrunde liegende Infrastruktur, was die Verschmelzung von IT- und Automatisierungsebene weiter vorantreibt. Cloud-basierte Datendienste können bei der Umsetzung solcher Automatisierungsprojekte helfen. Sie ersparen dem Maschinenbauer oder Endkunden das Zurverfügungstellen von entsprechendem IT-Know-how. Beckhoff stellt seinen Kunden mit Twincat IoT sowie dem Cloud-Buskoppler EK9160 zwei Produktreihen zur Verfügung, um solche Cloud-basierten Datendienste schnell und einfach in das Steuerungsprojekt integrieren zu können. Durch die zusätzliche Verwendung von Twincat Analytics lassen sich solche Projekte durch eine mächtige Analyse-Plattform, welche die aufgezeichneten Prozessdaten auswertet, abrunden.

Anzeige