Autorin: Anika Peucker

Kognitive Materialdiagnostik: bedarfsgerechte Maschinenwartung, qualitätssichernde Produktion

Schenken Sie sich ab und an einen guten alten Whisky ein? Vielleicht ist diese Whiskyflasche ja »intelligent«? Denn mittlerweile existieren Flaschen, bei denen die Hersteller die gesamte Customer Journey verfolgen können. Bevor Sie »auf dem Trockenen sitzen«, erhalten Sie vom Hersteller ein Angebot für Nachschub. Woher weiß er, dass Ihr Whisky bald leer sein wird? Ihre Flasche hat es ihm per Chip gemeldet.

Dieses Beispiel aus dem Konsumbereich ist Teil einer datengetriebenen Wirtschaft, in der intelligente Datenkombinationen die Goldnuggets der Unternehmen sind. Im Maschinenbau beispielsweise spielt bedarfsgerechtes, vorausschauendes Verschleißmonitoring eine zentrale Rolle – perspektivisch eingebunden in die vernetzte Fabrik. Wir laden Sie ein zu erfahren, was wir dazu anbieten.

 

Predictive Maintenance – Industrie 4.0 wird greifbar

Predictive Maintenance gilt als eine Schlüsseltechnologie der Industrie 4.0. Es ist wohl deren greifbarste Anwendung. Unter Predictive Maintenance versteht man eine zustandsabhängige, vorausschauende Wartung. Sie beruht auf der Auswertung von Umgebungs-, Prozess- und Maschinendaten. Predictive Maintenance ist weitgehend unabhängig von zeitlich vorgegebenen Wartungsintervallen, was bedeutet: eine Reparatur erfolgt nach Bedarf. So werden aus ungeplanten Stopps geplante. Sowohl Maschinenstillstände als auch Produktionsausfälle werden steuerbarer.

© Gerd Altmann | pixabay.com

Voraussetzung für die zielgerichtete Maschinen- und Anlagenwartung sind die Echtzeitanalyse, eine »Gedächtnisdatenbank« sowie die Ausstattung der Anlagen mit Sensoren, die permanent neue Daten erheben. Neue Anlagen werden meist im Entwurf intelligent ausgestattet. Die Nachrüstung bestehender Anlagen existiert aber ebenso, beispielsweise unter dem Schlagwort »Retrofit«. Dafür gibt es unterschiedliche Gründe. Die wichtigsten sind wohl: Nachhaltigkeit, Kos­teneinsparung oder die Steigerung der Produktionskapazität und -qualität. Vergleichen Sie es annähernd mit einer Gebäudesanierung.

Die verwendeten Daten stammen nicht nur von den Anlagen, sondern auch aus der Umgebung. Aufgezeichnet werden unter anderem die Umgebungstemperatur, Luftfeuchte und Vibration. Dazu nehmen die Maschinenbauer Infrarot-, Ultraschall-, Schwingungsanalyse- oder Schallpegelsensoren. Diese aufgenommenen Signale verknüpfen sie mit den Leistungsdaten der Anlage.

All diese neuen Daten werden kontinuierlich in das Anlagengedächtnis eingespeist und mit bestehenden Daten verknüpft. Dafür nutzen die Softwareentwickler beispielsweise künstliche neuronale Netze in grober Analogie zum menschlichen Gehirn. So wie sich Nervenzellen neu verschalten, um hinzukommende Informationen mit bereits Gelerntem zu vernetzen, werden die Elemente künstlicher neuronaler Netze mit Hilfe von Maschinenlernverfahren (Deep Learning) verschaltet. So »trainierte« Netze erlauben es, Maschinendaten zu sortieren, zu strukturieren, zu analysieren, zu vergleichen. Spuckt der Vergleich Abweichungen von der Norm aus, signalisiert die Anlage den Wartungs- oder Reparaturbedarf. Die Anzeige prognostiziert die Restlebensdauer der betroffenen Maschinenkomponente, sodass das Unternehmen den Ausfall im Produktionszyklus einplanen kann. Das verkürzt Stillstandszeiten. Es ist außerdem ein zentraler Baustein einer intelligenten Produktionsfabrik, die vorausschauend auf Kundenbedarfe reagiert. Dienstleistung, Logistik sowie Infrastruktur werden miteinander verzahnt, sodass in Zukunft Maschinen etwa ihre Ersatzteile selbst bestellen könnten und Lager ihre Restbestände melden. Solche komplexen Netzwerke sind natürlich nicht trivial. Außerdem sind sie selbst anfällig für Störungen.

Predictive Maintenance baut auf bekannten Konzepten wie dem Condition Monitoring, der Zustandsüberwachung von kritischen Maschinenkomponenten, auf. Das Condition Monitoring erfasste bisher bereits Daten in Echtzeit und gab Auskunft über den Qualitätszustand des überwachten Bauteils. Allerdings fehlten meist die kontinuierliche Überwachung sowie der Abgleich mit einer komplexen, autonom wachsenden, selbstlernenden Maschinendatenbank. Damit waren weitreichende verlässliche Ausfall- und Verschleißprognosen kaum möglich.

Predictive Maintenance signalisiert dahingehend eine neue Qualitätsstufe: »Mithilfe immer ausgefeilterer Sensorik, leistungsfähiger Kommunikationsnetzwerke und performanter Computing-Plattformen (…) können Muster in den Betriebsparametern erkannt, simuliert und interpretiert werden«, so formulieren es die Autoren einer Studie von Roland Berger aus dem Jahr 2017. Erst Verfahren der künstlichen Intelligenz, wie Mustererkennung, maschinelles Lernen oder Data Mining, in Verbindung mit großen Datenmengen (Big Data) ermöglichen eine fundierte Prognose zur Restlebensdauer.

© Gerd Altmann | pixabay,com

Der Begriff »Big Data« bezeichnet riesige Datenpools zusammengeführt aus verschiedenen Datenquellen. In den Pool strömen ununterbrochen Analysedaten ein. Die technische Herausforderung zeigt sich dabei in der Menge, Geschwindigkeit und Vielfalt der Informationen wie Datenquellen. Ab welcher Datenmenge man von Big Data spricht, wurde bisher nicht exakt definiert. Jedoch liegen wir hier jenseits der Gigabyte.

Data Mining umfasst die Analyse der gesammelten Daten. Vergleichen Sie es mit dem Goldschürfen des 19. Jahrhunderts. Im Fluss der Möglichkeiten aus Wasser und Geröll werden die wertvollen Nuggets herausgesiebt. So siebt Data Mining die wertvollen Datennuggets aus der einströmenden Informationsflut. Für das Data Mining werden Verfahren der mathematischen Statistik und der künstlichen Intelligenz verwendet.

Somit stellen Mustererkennung und Maschinenlernen einen fortschreitenden Prozess mit kontinuierlichem Erkenntnisgewinn dar, auf dessen Basis der Algorithmus unabhängig vom Menschen fundiertere und präzisere Entscheidungen trifft. Denn anders als der Mensch kann er wesentlich mehr Szenarien vorhersehen.

 

IKTS-Forschungsgruppe »Kognitive Materialdiagnostik« an der BTU in Cottbus

Die über die Jahre entwickelten Erkenntnisse und Kompetenzen des Fraunhofer IKTS in Condition Monitoring einerseits sowie dem Programmieren und Trainieren von Gedächtnisdatenbanken zur akustischen Signalverwertung andererseits fließen in den jüngst aufgebauten Kompetenzen zu Predictive Maintenance zusammen. Daraus entstand der IKTS-Bereich »Kognitive Materialdiagnostik«. Er bietet Kunden vom Maschinenbau- über den Mobilitäts-, Verkehrs- und Energiesektor bis hin zur Landwirtschaft, Papier- und Textilindustrie Wettbewerbsvorteile in Wirtschaftlichkeit und nachhaltiger Energieverwertung. Unter dem Qualitäts- und Sicherheitsaspekt sorgt die Projektgruppe mit Sitz in Cottbus dafür, ihre Forschungsergebnisse zügig in die industrielle Produktion für gesellschaftsrelevante Anwendungen zu transferieren.

© Gerd Altmann | pixabay.com

Die Forschungsarbeiten umfassen sowohl die Anlagenüberwachung als auch die Produktions- und Produktprüfung. In der Schadensdetektion (z. B. Überwachung sicherheitsrelevanter Bauteile im Schienenverkehr, der Windkraft oder Luftfahrt), Gütebewertung (z. B. Gut/Schlecht-Bewertung von Produkten), im Verschleißmonitoring oder der Analyse von Bio- und Sprachsignalen entstanden zurückliegend umfassende Forschungsergebnisse. Auf diesem Fundament baut die »Kognitive Materialdiagnostik« auf. Außerdem fanden die Wissenschaftlerinnen und Wissenschaftler um Dr. Constanze Tschöpe mit der Brandenburgischen Technischen Universität (BTU) einen exzellenten Partner an ihrer Seite. Die BTU bringt ihre Kompetenzen in künstlicher Intelligenz und zu kognitiven Systemen in die IKTS-Gruppe ein. Gemeinsam stellen sie sich den Herausforderungen, die der Maschinen- und Anlagenbau, die Produktionstechnik sowie das Qualitätsmanagement von Produkten in einer vernetzten Industrie und Infrastruktur bereithalten.

Welches sind Ihre Berührungspunkte zu Predictive Maintenance? Welchen Herausforderungen stehen Sie in einer datengetriebenen Wirtschaft gegenüber? Wir laden Sie ein, mit uns ins Gespräch zu kommen.