Optimieren ohne Stolperfallen

NEW BUSINESS Innovations - NR. 08, OKTOBER 2017
Viele Maschinen und Anlagen sind bislang noch nicht mit dem Internet verbunden. © Pixabay

Smarte Produktion steht auf der Prioritätenliste vieler Unternehmen. Die Wege bis zum Industrie-4.0-Glück sind heute aber mitunter noch steinig.

Eine wichtige Grundlage der smarten Produktion ist vorausschauende Planung, je detaillierter, desto besser. Das Prozess- und IT-Beratungshaus Wassermann AG ermöglicht es mit Version 4.1 der In-Memory-APS-Software „wayRTS“ (Real Time Simulation) nun, beliebige Echtzeit-Shopfloor-Daten aus einer SQL-Datenbank einzubinden, zu visualisieren und zur Planung von Supply Chain und Produktion einzusetzen. Damit unterstütze die Software „noch besser als bisher“ die Optimierung von Prozessen in Richtung Industrie 4.0 oder Smart Factory, wie das Unternehmen betont. So könnten beispielsweise die Echtzeit-Auftragsdaten für die Kapazitätsplanung genutzt oder aus den Maschinendaten ein detailliertes Condition Monitoring der Produktionsanlagen aufgebaut werden.
Status, Taktzahl, Verbrauchsmittelstand, gerüstete Werkzeuge, Wartungsbedarf – welche Informationen eine Maschine oder Anlage auch liefert, wayRTS stelle sie dem Planer zur Verfügung, um Kapazitäten noch präziser planen zu können. Dafür greife die Lösung auf Maschinendaten zu, die über ein OPC-UA-Interface in einer SQL-Datenbank gesammelt würden. So könne jede Liste um eine beliebige Anzahl von Informationsspalten, wie zum Beispiel GPS-Daten von Materialien, erweitert werden. Es könnten zudem mehrere Datenbanktabellen eingebunden werden, überdies könnten die Visualisierungsmöglichkeiten für beliebige Informationen genutzt werden.
Allerdings ist ein Großteil industrieller Maschinen und Anlagen bislang noch gar nicht mit dem Internet verbunden. Die Gründe hierfür sind in der Protokollvielfalt, mit der kommuniziert wird, und der mangelnden Bandbreite, die eine effektive Datenübertragung in die zentrale Cloud erschwert, zu finden. IPC Deutschland will es nun mit dem „Cloud-based IPC ECW-281-QGW“ ermöglichen, Maschinen ans Netz zu bringen, dabei aber Daten den Umweg über die Cloud zu ersparen und zugleich die Latenzzeit auf ein Minimum zu reduzieren. Denn die Lösung werde direkt an der Maschine platziert, wo die Daten von Sensoren und Aktoren erfasst, analysiert und weiterverarbeitet werden.

Leistung trifft auf Intelligenz
Ermöglicht werde dies durch das Zusammenspiel aus leistungsfähiger Recheneinheit und intelligenter Software, wie der Hersteller betont. Die Hardware basiert auf einem Intel-„Celeron J1900“-Prozessor mit max. 8 GB DDR3L-Arbeitsspeicher und sei mit zahlreichen Kommunikationsschnittstellen wie drei RS-232, eine RS-422/485, 8-Bit-digitale-I/O sowie zwei LAN ausgestattet. Das Highlight des Cloud-based IPC sei jedoch seine Intelligenz. Diese stecke im vorinstallierten Embedded-Linux-QTS-Betriebssystem und den integrierten Softwaretools.
Das betriebsbereite System biete Entwicklern unter anderem uneingeschränkten Zugriff auf den „Docker Hub“. Über diesen könnten nachträglich zusätzliche Tools installiert werden. Selbst erstellte Software könne beispielsweise in Container verpackt und flexibel von einer Anwendung zur nächsten portiert werden. Multiple Feldbus-Protokolle wie Modbus, CAN oder Profibus könnten in IoT-Protokolle wie MQTT oder CoAP konvertiert werden. Dies erleichtere die Vernetzung bestehender Maschinen. In lokalen Datenbanken würden anfallende Maschinendaten sicher zwischengespeichert und mittels Rules-Engine-Node-RED ausgewertet und Aktionen unmittelbar ausgeführt. Das Ergebnis seien angereicherte Datensätze, die zeitversetzt und nur bei Bedarf in die Cloud verschoben werden. Auf diese Weise werde die mangelnde Bandbreite kurzerhand ausgehebelt und jede bestehende Maschine unter Einsatz eines Cloud-based IPC mit Intelligenz versehen.

Fehler in der Produktion erkennen
Ein wichtiges Thema im Rahmen der smarten Produktion ist Prozessoptimierung. So will das Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) auf der EMO Hannover 2017 eine „smarte Systemoptimierung, die Fehler in verketteten Produktionsprozessen erkennt und ihre Ursachen sowie die Fortpflanzung automatisiert aufzeigt“ präsentieren.
„Mit der smarten Systemoptimierung erfolgt eine technisch detaillierte und zugleich automatisierte Auswertung von Stillstandsursachen und Fehlerzusammenhängen in einer Produktionslinie. Sobald die Produktion läuft, werden aus allen Prozessschritten zeitsynchron Daten an ein Analysetool übermittelt“, betont Felix Georg Müller, Fachthemenleiter Autonome Fertigungssystemoptimierung. Das Analysewerkzeug könne mit den am Fraunhofer IPA entwickelten Algorithmen Rückschlüsse ziehen und die Informationen in gewünschter Form aufbereiten.
Als Datenbasis dienen Zustands- und Prozessinformationen aus allen technischen Teilschritten der gesamten Prozesskette. Hieraus könne das Tool kontinuierlich und echtzeitnah herausarbeiten, wo Fehler oder Stillstände auftreten oder erst durch das Zusammenspiel mehrerer abweichender Faktoren in verschiedenen Prozessschritten entstehen. Im Gegensatz zur klassischen Overall Equipment Effectiveness (OEE) erhalte der Anwender sofort eine Ursachenzuordnung.
Der Anwender sehe beispielsweise, welcher Prozess den anderen blockiert, und erkenne, wo der Auslöser sitzt. Zudem sei es möglich, die Fehlerbehebung zu priorisieren, da der reale Engpass der Produktionslinie zu jeder Zeit berechnet werde. Dies basiere auf allen aktuell detektierten Fehlerbildern, Kurzstopps und Ausschussraten und spiegle somit den Echtzeitblick auf eine Anlage wider.

Big Data für die Industrie
Datenquellen seien entweder zusätzlich installierte Sensoren, wie etwa smarte Kameras, oder – falls keine Prozessinformationen vorliegen – es kommt der am IPA entwickelte Maschinendaten-Logger zum Einsatz. Dieser sei bereits heute in der Lage, Massendaten aus den Industriesteuerungen „Siemens S7-1500“, „Beckhoff CX1020“ und „Mitsubishi Q Series“ an das Analysewerkzeug zu liefern. Da somit alle relevanten Variablen im Millisekundentakt verfügbar seien, könne das Betriebsverhalten erlernt werden. „Damit machen wir gängige Maschinensteuerungen Big-Data-fähig und können bereits vorhandene Maschinendaten in das Analysemodell integrieren“, erklärt Müller. „Mit unserem Tool konnten wir bei bereits hoch standardisierten Maschinen von Automobilzulieferern zwischen sechs und zehn Prozent Zykluszeitreduktion erzielen und die dauerhafte Einhaltung des Optimums überwachen.“
Basis dieser datengetriebenen Produktionsoptimierung sei die permanente und extrem detaillierte Analyse des Anlagenverhaltens und aller beteiligten Einzelprozesse einer Produktionslinie. Dies könne nicht manuell, sondern aufgrund des extrem hohen Datenverarbeitungsvolumens nur automatisiert erfolgen. So würden die Fehlerursachen nicht mehr ausschließlich im dynamischen Linienverhalten gesucht, sondern auch etwa per Anomaliendetektion in den Prozessdaten aller Einzelprozesse. Damit könnten Fehler noch präziser ermittelt und eliminiert werden. Mit konventionellen Ansätzen wäre ein Prozessoptimierer allein mit der Sichtung eines Datensatzes und dessen Analyse stunden- oder sogar tagelang beschäftigt und könnte doch immer nur einen Zeitausschnitt untersuchen – nämlich den, den der Datensatz repräsentiert. (TM)
www.emo-hannover.de, www.ipa.fraunhofer.de
www.wassermann.de, www.icp-deutschland.de