Industrie 4.0 und die Herausforderungen
Industrie 4.0 war vergangene Woche das „Hotspot-Thema“ auf der Hannover Messe. Wir erklären, um was es dabei geht und welche Herausforderungen sich daraus ergeben.
Industrie 4.0 – die vierte industrielle Revolution – war und ist das große Thema in den deutschen Konzernen und im Mittelstand. Die Zukunft gehört einer immer besser werdenden Kommunikation und Interaktion zwischen Mensch und Maschine, aber auch von Maschine zu Maschine. Jedoch stehen viele Unternehmen noch an der Schwelle und benötigen Unterstützung bei der Digitalisierung ihrer Prozesse. Daher haben wir Dr. Alexander Nichau gebeten, uns einige Fragen zum Schritt in die Industrie von morgen zu beantworten.
Mit seiner Firma niologic berät Dr. Alexander Nichau Firmen zu Datenstrategien und komplexen Datenanalysen. Zu den Kunden gehören Beratungshäuser, Maschinenbauer und Handelsunternehmen. Die Wertschöpfung der Daten steht dabei im Vordergrund.
Die Ausgangslage ist gut – Viele Anlagenbauer haben schon vor Jahren eine Vielzahl von Sensoren in Ihre Maschinen eingebaut. Diese werden aber bislang vorwiegend für die operative Überwachung genutzt. Nun geht es darum, diese Maschinendaten für weitere Zwecke nutzbar zu machen. Hier kommt Industrie 4.0 ins Spiel – Maschinendaten werden automatisch im zentralen Rechenzentrum weiterverarbeitet und Entscheidungen werden automatisch getroffen.
Die wichtigsten Eigenschaften der Industrie 4.0
Die Maschinendaten haben vielfältigen Nutzen. Aufgrund der Sensordaten können wir Wartungsfälle anlassbezogen identifizieren. Ein wichtiges Stichwort ist hier Predictive Maintenance. Es ist aber auch möglich, die Ersatzteilversorgung und Lagerhaltung typen- und anlassbezogen zu steuern, damit der Anlagenbauer Originalteile schneller ausliefern kann. Dieses setzen wir für unsere Kunden bereits erfolgreich um und dadurch steigern diese ihren Umsatz im Bereich Service.
Ein weiteres Beispiel: Ramp-ups (das Anfahren großer Maschinenstraßen) lassen sich mithilfe künstlicher Intelligenz schneller durchführen. Die Maschinen kommunizieren und reagieren einfach schneller untereinander, als dies ein menschlicher Anlagenfahrer kann.
Aber auch für die Forschung und Entwicklung sind diese Daten sehr wertvoll: Typische “Rezepte” und Nutzungsszenarien der Kunden lassen sich identifizieren. So können neue Maschinen und Steuerungen kundenorientiert entwickelt werden. Customer Driven Design hält damit auch in den Maschinenbau Einzug.
Kurz gesagt: Vertrauen und Akzeptanz.
Vertrauen, weil die Endkunden davon überzeugt werden müssen, dass ihre Daten beim Anlagenbauer bzw. in der Cloud sicher sind. Sicher bedeutet hierbei: vor dem Zugriff von Regierungen und der Konkurrenz. Schließlich könnte ein Datendiebstahl für das Unternehmen herbe Verluste bedeuten, weil Fertigungsparameter der Konkurrenz zugänglich gemacht werden.
Akzeptanz, weil die Endkunden darüber entscheiden, ob sie sich den Nutzen geringerer Downtimes und besserer Betreuung der Anlagen aneignen oder weiterhin klassisch operieren.
Unsere Kunden sehen maschinelles Lernen als weiteres Merkmal der Diversifizierung für High-Tech “Made in Germany”. Und unsere Kunden verkaufen Technologie mit Industrie 4.0 weltweit. Gerade bei internationalen Fertigungsstandorten – Thema Globalisierung – können unsere Kunden durch die Vernetzung und Algorithmik die Fertigungsbedingungen an allen Standorten gleich halten. Damit garantieren sie eine weltweit gleichbleibende Qualität.
Die Zukunft gehört einer immer besser werdenden Kommunikation und Interaktion zwischen Mensch und Maschine, aber auch von Maschine zu Maschine.
Das sind zum einen unsere exzellenten Mitarbeiter mit einem Hintergrund in Mathematik oder Physik. Weiterhin sind es hohe Standards der Datensicherheit für eine größtmögliche Akzeptanz der Nutzerbasis. Drittens eine flexible Cloud-Infrastruktur, welche skalierbar und konfigurierbar unterschiedlichste Daten weiterverarbeiten kann.
Neben der Skalierbarkeit der Cloud-Plattform sind dies zum einen In-Memory-Technologien, welche uns erlauben, sehr schnell eine Vielzahl von Parametern zu analysieren. Die Daten müssen dabei auch flexibel geroutet werden. Wir setzen hier auf eine softwarebasierte Routing-Engine, um Daten schnell und konfigurierbar verteilen zu können. Eine Job-Engine sorgt für die zuverlässige Verarbeitung eingehender Daten. Des Weiteren nutzen wir Deep-Learning-Algorithmen, welche durch neuronale Netze, also künstliche Intelligenz, versteckte Zusammenhänge in den Daten erkennen.
Dr. Alexander Nichau hat in der Halbleiter- bzw. Chipforschung promoviert. Stationen waren dabei weltweit führende Forschungsgruppen am Forschungszentrum Jülich, imec/Leuven oder ESRF Grenoble. Dabei hat er mit fast allen Chipherstellern in Prozesstechnologie und angewandter Stochastik kooperiert. Nach seiner Promotion folgten Stationen als Leiter der Produktentwicklung für führende Unternehmen im Bereich Datenanalyse und Softwaretechnologie. 2015 gründet er die Firma niologic – Data Science Consulting.
Jetzt Artikel teilen:
DAS KÖNNTE SIE AUCH INTERESSIEREN:
Industrie 4.0 war vergangene Woche das „Hotspot-Thema“ auf der Hannover Messe. Wir erklären, um was es dabei geht und welche Herausforderungen sich daraus ergeben.
Predictive Maintenance kann in der Industrie für kürzere Ausfallzeiten und effizientere Umrüst- und Wartungsmaßnahmen sorgen.
Ein neuer Report mit dem Titel „Measuring the Financial Impact of IT Security on Businesses“ von Kaspersky Lab veröffentlicht schockierende Zahlen:
Bitte wählen Sie einen der unten stehenden Links, um zum gewünschten Portal zu gelangen.
Bei Fragen oder technischen Problemen wenden Sie sich bitte an Ihre gewohnten Ansprechpartner.
Für die Darstellung dieser Inhalte von YouTube benötigen wir Ihre Einwilligung. Wenn Sie die Inhalte aktivieren, werden Ihre Daten verarbeitet und es werden Cookies auf Ihrem Endgerät gespeichert sowie von diesem gelesen.
Weitere Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung für 30 Tage ( in einem Cookie) speichern