Anomalieerkennung am Beispiel eines Motors

In diesem letzten Artikel unserer Ananomalierkennungs-Serie zeigen wir ein praktisches Beispiel der Anomalieerkennung. Wir erklären, in welchem Szenario der Anomalieerkennung wir uns befinden und welche Anomalien wir in Betracht ziehen. Mehr Einzelheiten erfahren Sie in den vorhergehenden Artikeln zum selben Thema: „Die drei verschiedenen Arten von Anomalieerkennung“ und „Die drei Szenarien der Anomalieerkennung“.

 

Es handelt sich um einen Elektromotor. Dieser dreht mehrere durch einen Antriebsriemen miteinander verbundene Metallscheiben. Die einzelnen Teile des Motors und die Scheiben vibrieren, wenn der Motor läuft. Die Vibrationen werden mit einem drahtlosen Vibrationssensor der Firma Neratec gemessen. Diese Messungen ermöglichen die Erkennung möglicher Anomalien des Motors.

 

Anomalieerkennung am Elektormotr, ausgestellt an der Sindex
Abb. 1: Elektormotor an unserem Stand auf der SINDEX 2016 in Bern. Blau: Motor. Rot: Vibrationssensor. Grün: Echtzeitanomalieerkennung.

 

Die vollständige Anlage ist in Abb. 1 dargestellt. Der Motor ist blau, der Vibrationssensor rot und die Benutzeroberfläche grün umrahmt. Wir haben diese Versuchsanordnung bei der großen, alle zwei Jahre stattfindenden Technologiemesse Sindex 2016 aufgebaut.

 

In den nächsten Kapitteln gehen wir in wenigen Zeilen auf die Einzelheiten der Problemerkennung, Problemlösung und Durchführung der Anomalieerkennung ein.

Problemerkennung:

Die Hauptursachen von Funktionsstörungen eines solchen Motors sind folgende: Der Motor dreht sich zu langsam, zu schnell oder eine der Metallscheiben ist in Unwucht. Weitere Funktionsstörungen haben wir absichtlich außer Acht gelassen, da sie mit einem Vibrationssensor nicht von anderen Störungen unterscheiden lassen. Ein Problem der Stromversorgung beispielsweise, verhindert, dass der Motor läuft: Wie wäre ein Stromunterbruch vom ausgeschalteten Motor mit einem Vibrationssensor zu unterscheiden?

 

Wir wollen herausfinden, ob der Motor richtig funktioniert und die verschiedenen Anomalien erkennen. Wir haben also ein Klassifizierungsproblem mit fünf Klassen:

 

  1. 1. Der Motor ist ausgeschaltet
  2. 2. Der Motor funktioniert normal
  3. 3. Der Motor läuft zu langsam
  4. 4. Der Motor läuft zu schnell
  5. 5. Eine der Metallscheiben ist in Unwucht

 

Im Vorfeld haben wir Messungen jeder Klasse vorgenommen und jede Messung einer der fünf Klassen zugeordnet. Dadurch sind die zu erkennenden Anomalien vollständig bekannt.

Problemlösung:

Die zur Verfügung stehenden Daten werden durch den Vibrationssensor gesammelt. Dieser stellt ein Signal mit 2 kHz Abtastrate zur Verfügung. Dieses Signal haben wir mittels Fast Fourier Transformation (FFT) in den Frequenzbereich transformiert. Die Features (verwendete Merkmale) unseres Modells sind somit die Koeffizienten der Fourier-Transformierten.

 

Verschiedene Spektren je nach Zustand des Motores

 

Abb. 2: Mittlere Frequenzen je nach Zustand des Motors (ausgeschaltet, normal, zu schnell, zu langsam)

 

Im vorliegenden Beispiel haben wir mehrere Modelle angewandt und getestet. Unser Ziel war es, richtige Vorhersagen schnell und mit einem einfachen Algorithmus zu erhalten. Unsere Wahl fiel schließlich auf den Algorithmus Random Forest. Er ist einfach anzuwenden, schnell, erzielt zufriedenstellende Ergebnisse und gibt Auskunft über den Einfluss der verschiedenen Features (Merkmale) auf die Anomalienklassifizierung.

Durchführung:

Das Projekt wurde mit der Software Dataiku durchgeführt. Es erleichtert und beschleunigt Datenimport, -bereinigung und -verarbeitung. Auch das Erstellen eines Modells ist einfacher. Unseren Algorithmus Random Forest können wir mit einem einzigen Klick anwenden und auswerten.

 

Datenfluss in Dataiku

Abbildung 3: Datenfluss des Projekts in Dataiku

 

Abschließend ein kurzes Video, das auf der SINDEX aufgenommen wurde, und in welchem wir unseren Motor live vorstellen:

 

Seminar-Rückblick “Data Science in der Industrie 4.0”

Die mentale Hürde ist wie so oft die höchste: Zwar spricht beinahe jeder von der Notwendigkeit und Unaufhaltsamkeit der Digitalisierung (auch) in der Industrie, aber wie beginnt man, wo ist der beste Einstieg und in welchem Bereich lassen sich erste Erfolge am einfachsten realisieren? M&F Engineering AG in Fahrweid, seit mehr als 30 Jahren auf die Schwerpunkte Software-Entwicklung, automatisiertes Testen und Prüfsysteme fokussiert, veranstaltet mehrmals jährlich Seminare zu diesen und verwandten Themen. Am 21. März ging es vor allem um die Beantwortung obiger Fragen, und LeanBI war als Partnerfirma von M&F zu einer Handvoll Kurzvorträgern eingeladen.

Eine gelungene Veranstaltung

Um es gleich vorweg zu nehmen: Es war eine überaus gelungene und mit ca. 50 Teilnehmern auch vollständig ausgebuchte halbtägige Veranstaltung. Die verschiedenen Vorträge befassten sich mit sehr konkreten Themen wie Fast Prototyping für Data Science Projekte, dem Einsatz gängiger Machine-Learning-Algorithmen mit Beispielen und ihren jeweiligen Vor- und Nachteilen sowie den Ergebnissen eines Kunden-Workshops. Doch auch der Blick aus der «Helikopter-Perspektive» fand mit einem Beitrag zum Nutzen von Big Data Platz in der Veranstaltung.

big_data_nutzen

Die Kurzvorträge

  • Begrüssung und Einführung (R. Bättig, Geschäftsführer M&F Engineering AG)
    Reto Bättig startete die Veranstaltung pünktlich um 9:00 mit einem kurzen Abriss zu den Geschäftsfeldern und insbesondere zu dem ausgefeilten Trainee-Programm von M&F und der Vorstellung der Agenda.
  • Einführung LeanBI (M. Tesch, LeanBI AG)
    Eine kurze Vorstellung von LeanBI und die Darstellung typischer Data Analytics Use Cases markierten den Einstieg in den Fachteil.
  • Der Weg von Big Data zu Nutzen und Wert (W.Weber, LeanBI AG)
    Sämtliche Überlegungen zur Anwendungen digitaler Möglichkeiten sollten beim angestrebten Nutzen beginnen. Dieser «diktiert» über die Stationen «Wissen» und «Information» sozusagen im Rückwärtsgang, welche Daten erhoben und ausgewertet werden sollten. Ein Beispiel aus der Medizinaltechnik für einen solchen Weg illustriert diese Vorgehensweise.
  • Übersicht über die wichtigsten Algorithmen und deren Möglichkeiten (S. Pauli und J. Bovay, beide LeanBI AG)
    Was kann man aus den Geräuschen, welche eine Aufzugstüre beim Bewegen erzeugt, über den Zustand des Türsystems herauslesen? Ein einfacher Algorithmus gibt die Antwort. Oder: Was sind die (überraschenden) Erkenntnisse aus der Auswertung der Daten eines städtischen Velo-Verleihs? Ein wesentlicher Benutzerkreis der Velos sind «Sonntagsfahrer»! Das hätte zuvor niemand erwartet, erst ein Algorithmus zeigt diese Tatsache auf. Beginnend mit solchen praktischen Anwendungen erklärten die beiden Vortragenden exemplarisch vier verschiedene, aber stets einfach anwendbare Algorithmen, die häufig zum Einsatz kommen, sowie deren industrielle Einsatzmöglichkeiten. Auf einmal verliert die Sache ihren Schrecken und nutzbringende Anwendungen werden plastisch begreifbar.
  • Data Science Projekt-Beispiel: Geberit (R. Bättig, M&F Engineering AG)
    Bei einem vollautomatischen Prüfsystem bei Geberit bricht bei Fehlern in der Vorbereitung die Prüfung irgendwann ab. Dadurch geht Zeit geht verloren und die Prüfung muss wiederholt werden. Zusammen mit den Datenspezialisten von LeanBI wurde die Auswirkung eines häufig zu wechselnden Teststeckers untersucht; diesen erst zu tauschen wenn dies wirklich nötig wird (Predicitive Maintenance), reduziert den Verbrauch an neuen Steckern. Doch der eigentliche Nutzen zeigte sich dann plötzlich ganz woanders: Es gibt Prüfteams, deren Ausschussrate massiv niedriger als die anderer Teams ist. Unter Berücksichtigung des Datenschutzes lassen sich so mögliche Verbesserungen erkennen, deren Nutzen den von vorausschauender Wartung bei Weitem übersteigt.
  • Fast Prototyping: Inspiration, was möglich ist (S. Pauli, LeanBI AG)
    Mit der Methode des fast Prototyping ist es z.B. möglich, mittels einer ersten Datenanalyse und ohne grossen Aufwand grundlegende Erkenntnisse über komplexe Produktionsverfahren zu gewinnen. Diese sind als Basis für eine Qualitäts-stabile Produktion und deren Optimierung von grossem Nutzen. S. Pauli zeigte das im Abschluss-Vortag u.a. am Beispiel der Herstellung von Dialysefiltern.

Fazit

Der Einstieg in die Gebiete des Machine Learning und der industriellen Datennutzung ist viel weniger kompliziert als gedacht: Schon die erste Anwendung einfach zu bedienender Algorithmen liefert erste wertvolle Erkenntnisse und vor allem Antworten auf Fragen, die man zu Beginn gar nicht gestellt hatte. Aber genau diese Antworten weisen den richtigen Weg für die weitere Untersuchung der Systeme und ihrer Optimierung. Und wenn man parallel zu diesen praktischen Anwendungen stets deren erforderlichen Nutzen herausarbeitet und beachtet, ergeben sich weittragende digitale Lösungen.

Kurz zusammengefasst: Ohne Scheu anfangen, auch wenn man anfangs vielleicht noch gar nicht genau weiss, wohin die Reise gehen wird. Der weitere nutzbringende Weg wird oft erst durch die überraschenden Ergebnisse erster Datenauswertungen klar.
Auf geht’s!

Cyber-physikalische mechatronische Systeme und Smart Factory-Konzepte auf Anlagenebene

Nach der Konsumgüterindustrie verändert die Digitalisierung vermehrt auch die Industrielandschaft. Oder anders gesagt: der Vormarsch Cyber-Physikalischer Systeme (CPS) findet bereits spürbar statt. Prof. Wernher van de Venn von der ZHAW hat dazu eine Vorlesungsreihe mit dem Thema „CAS Industrie 4.0 Implementierung“ aufgelegt. Deren erstes Modul «Cyber-physikalische mechatronische Systeme und Smart Factory-Konzepte auf Anlagenebene“ wurde im März 2017 von LeanBI bestritten. Hier ein kurzer Abriss:

Zentrale Fragen der Vorlesungsreihe

Die zentralen Fragen der Vorlesungsreihe mit insgesamt sechs Modulen sind:

  • Wie entwickelt man im Kontext von Industrie 4.0 Anlagen und Systeme?
  • Wie integriert man neue Fertigungstechnologien sowie verbundene Objekte zu einer intelligenten Steuerung?
  • Wie erhält man auf dieser Basis neue Services, Produkte und Geschäftsmodelle mit einem Mehrwert für Anwender und Kunden?
  • Welche neuen Risiken entstehen im Umfeld von Industrie 4.0 und wie werden diese gemanaged?

Aufbau von Modul A

In allen Modulen wird auf einen guten Mix aus Vorlesung und Workshops geachtet, um den Teilnehmern (Leitende in Produktion u. Logistik, Geschäftsführer von KMUs, CTOs und CIOs sowie Ingenieure, Softwareentwickler und -Architekten, Marketingfachleute usw.) mögliche Lösungen und praktische Erfahrung an die Hand zu geben.

Das insgesamt 2-tägige Modul A umfasste dabei die folgenden Themen:

  • Einführung Industrie 4.0
  • Schweizer Maschinenhersteller Use Case
  • Einführung in Cyber Physikalische Systeme
  • Technologien von CPS
  • Security und CPS
  • CPS Anwendung und Modellierung auf Anlagen
  • Workshop: „CPS Ideen“
  • Von Mechatronic zu CPS: Ein historisch-technischer Abriss
  • Von Daten zum Nutzen
  • Algorithmen in CPS (Doppellektion)
  • CPS und digitale Geschäftsmodelle: Methoden
  • Workshop: „Methoden zur Erarbeitung digitaler Geschäftsmodelle auf Basis Cyber-physikalischer Produktions- und Anlagensysteme“

Ziel dieses ersten Moduls war es, den Studierenden ein Grundverständnis von CPS-Systemen und ihrer vielfältigen Ausgestaltungs- und Anwendungsmöglichkeiten zu geben. Einer der Schwerpunkte dabei waren «Neue Service- und Geschäftsmodelle mit Industrie 4.0», und dort insbesondere im Bereich „Predictive Maintenance“.

Die Anwendung auf die Praxis: zwei Workshops

In den zwei integrierten Workshops konnten die Teilnehmer dann das Erlernte versuchsweise in selbst gewählten CPS-Beispielen in die Praxis umsetzen:

  • Die Produktion von Elektro-Velos
  • Predictive Maintenance am Förderband einer Kehrichtverbrennungsanlage
  • Eine «Smarte Krücke», die eine gehbehinderte Patienten in nutzbringender Weise unterstützt
  • Ein intelligenter Schaltschrank, der sich den weltweit unterschiedlichen Witterungsbedingungen selbständig anpasst

Schon während der Vorlesungen, ganz besonders aber in den Workshops war deutlich zu beobachten, wie die Teilnehmer dank der intensiven Auseinandersetzung mit den Themen Digitalisierung und CPS zunehmend eine «digitale Phantasie» entwickelten und begannen, in neuen Geschäftsmodellen zu denken und diese miteinander zu diskutieren.
Übrigens ein Phänomen, welches LeanBI auch in zahlreichen Kundengesprächen und -Workshops beobachtet: anfänglich Skepsis oder sogar Unsicherheit schlägt bei Beschäftigung mit dem Thema in Interesse und gelegentlich sogar in kaum noch zu bremsende Begeisterung um.

Kurzer Abriss der Vorlesungsreihe

Nach Darstellung u.a. der CPS-Situation in der Schweiz, der historischen und (sicherheits-)technischen CPS-Aspekte und verschiedener Algorithmen und (z.T. sogar historischer) Use Cases schloss sich der Bogen in Modul A mit dem allgemein viel Unsicherheit auslösenden Thema «Digitale Geschäftsmodelle».

Aber auch hier gelang es, den Teilnehmern einen praktikablen mehrstufigen Ansatz zu vermitteln, der unmittelbar auf bestehende und auf neue (digitale) Geschäftsmodelle angewendet werden kann.
Insbesondere die unabdingbare Ausrichtung auf den Nutzen solcher Geschäftsmodelle war anfänglich ein intensiver Diskussionspunkt, entwickelte sich aber im Verlauf des Moduls A geradezu zu einer alles verbindenden «Klammer» für die Einführung von CPS nach dem Motto: der Kundennutzen muss immer der Ausgangspunkt für die Implementierung solcher Systeme sein.

Grad_der_Digitalisierung

Fazit

Cyber-Physikalische Systeme sind gar nicht so «ausserirdisch» oder neu, wie oft angenommen wird. Es gibt vielmehr gute historische Beispiele und praktische Einstiegsmöglichkeiten, deren Nutzen sich schon nach kurzer Zeit manifestiert. Die sequentiellen CPS-Aufbaustufen im industriellen Alltag sind häufig:

  1. 1. Produktverbesserung
  2. 2. Prozessverbesserung
  3. 3. digitales Geschäftsmodell und seine Optimierung

So verliert das Thema viel von seinem Schrecken und wirft rasch erste Erfolge ab.
Die hochaktuelle Vorlesungsreihe der ZHAW leistet dafür einen wertvollen Beitrag.

DEFL – Digitale Transformation im KMU – Programm

Jeder spricht von ihr: der digitalen Transformation. Und im industriellen Bereich ist durchaus eine deutliche Unruhe und Verunsicherung bzgl. konkreter Ansätze und Einstiegsmöglichkeiten spürbar. Diese Veranstaltung am 2. Mai 2017 soll genau diesem Einstieg seine vermeintliche Höhe nehmen und anhand konkreter Praxisbeispiele zeigen, wie durch Digitalisierung in einem KMU unmittelbarer Nutzen erreicht werden kann.

 

Im Anschluss an das Veranstaltungsprogramm geht’s ganz unten weiter zur Anmeldung. Wir wünschen Ihnen eine anregende und interessante Veranstaltung im KKL in Luzern!

 Veranstaltungsprogramm

ab 08.30: Check-In und Begrüssungs-Kaffee

 

09.15: Beginn der Veranstaltung

 

Vorstellung der Studie zum Digitalen Reifegrad der Schweizer KMUs
Prof. Markus Wyss, Dozent Hochschule für Wirtschaft Luzern – Informatik

 

Über Disruption und die Verschiebung der Kernkompetenzen
Prof. Dr. Gunter Dueck, Mathematiker, ehemaliger IBM CTO und satirisch-philosophischer Schriftsteller

 

Die Digitale Agenda stellt den Kunden ins Zentrum – endgültig!
Dr. Marianne Janik, Microsoft, Country Manager Switzerland

 

Pause

 

10.50: Beginn zweiter Teil

 

Internet of Things – Smarte Sensoren für eine bessere Umwelt
Christian Ruckstuhl, Geschäftsleiter, inNET Monitoring AG

 

Die Digitalisierung als Wachstumschance für Schweizer KMUs
Benedikt Bitzi, Google, Leiter KMU Schweiz & Österreich

 

MyMedela – Digitales Marketing und Kundenbindung
Thomas Schärli, Head of E-Business, Medela AG

 

Automatisierung, Bots, Chancen
Maurice Codourey und Thomas Schulz, Konferenzgründer botscamp.co

 

Einhaltung der Norm für die Rückverfolgbarkeit und die Prozess-Optimierung – Dank Digitalisierung kein Zielkonflikt
Oliver Busse, Qualitätsmanager, Hofstetter PCB AG
Denis Druzic, Leiter Business Unit Projekte, Noser Engineering AG

 

Ab 12.30: Mittagspause, Stehlunch und Networking

 

13.30: Beginn des individuellen Nachmittag-Programms

 

Präsentation von realisierten Firmen-Projekten der Digitalen Transformation
Produkte und Dienstleistungen werden von den Praxis-Partnern anhand von konkret umgesetzten Kunden-Projekten vorgestellt.

 

Dazwischen: Freier Besuch der Partner-Ausstellung

 

16.15: Abschluss-Vortrag

 

Die Auswirkungen der Digitalisierung in den nächsten 36 Monaten
Dr. Andreas M. Walker, Zukunftsforscher

 

Roundtable
Experten und Teilnehmer diskutieren ihre Einschätzung der digitalen Veränderungen der kommenden 36 Monate

 

17.15 Ende der Veranstaltung

Anmeldung

Die Anmeldung erfolgt direkt über die Veranstalterseite. Am besten verwenden Sie dafür unseren Kunden-Promo-Code LeanBI@DEFL, dank dem sich die Anmeldegebühr auf Fr. 250 (anstatt Fr. 350) reduziert.

 

anmeldung

Die drei Szenarien der Anomalieerkennung

In einem realen Problemfall sind die zur Verfügung stehenden Daten nicht immer die, welche man im Idealfall gerne hätte. Oft ist es teuer, schwierig und/oder es dauert lange, die verschiedenen notwendigen Informationen zusammenzutragen. Im vierten Artikel unserer Anomalie-Reihe beschreiben wir, wie sich drei Szenarien der Anomalieerkennung durch die Vollständigkeit der vorhandenen Daten definieren: Überwachte, semi-überwachte und unüberwachte Anomalieerkennung.

 

Beispielsweise ist im Rahmen der Erkennung eines Kreditkartendiebstahls die Anzahl der betrügerischen Transaktionen deutlich geringer als die Anzahl normaler Transaktionen. Anders ausgedrückt: Die Anzahl der Anomalien ist begrenzt, und das System muss sich mit sehr wenigen Beispielen begnügen um für die Erkennung angewendet zu werden.

 

In bestimmten Fällen ist es nicht einmal möglich, vorab die Anomalien zu messen. In der zivilen und militärischen Luftfahrt werden mehrere Sensoren an den verschiedenen Triebwerken der Maschinen angebracht. Das Ziel ist es festzustellen, ob es in den komplexen Funktionsabläufen des Maschinenantriebs ein Problem gibt. In der Testphase ist es jedoch zu teuer, einen Triebwerk zu beschädigen, nur um anomalie Messungen vorzunehmen. Der Erkennungsalgorithmmus muss sich mit Daten eines Triebwerks in gutem Zustand begnügen.

Triebwerk
Ein Triebwerk sollte nicht beschädigt werden, nur um Fehler-Daten zu erhalten.

 

 

Im Allgemeinen unterscheidet man die folgenden Szenarien, bei üblicherweise ansteigendem Schwierigkeitsgrad: Überwachte, semi-überwachte und unüberwachte Anomalieerkennung.

Überwachte (supervised) Anomalieerkennung:

Dies ist der einfachste Fall, aber auch der seltenste und unrealistischste. In diesem Szenario sind zu jeder einzelnen Anomalie viele Daten vorhanden und es gibt auch eine grosse Menge an Daten ohne Anomalie. Dieser Fall ist einfach, denn es handelt sich um ein Klassifizierungsproblem mit zwei oder mehr Klassen, je nach Anzahl der betrachteten Anomalien. Auf dieses Klassifizierungsproblem können bewährte Methoden angewandt werden. So viele hochqualitative Daten zu erhalten ist allerdings selten. Denn es ist meist schwierig, ausgezeichnete Daten für jede Anomalie zu erhalten. Auch wenn man keinen Extremfall, wie den des Flugzeugmotors, annimmt, ist es schwierig, Daten für alle vorstellbaren Anomalien zusammenzutragen. Aus diesem Grund kommt dieses Szenario nur selten zur Anwendung.

Semi-überwachte (semi-supervised) Anomalieerkennung:

In diesem Fall sind die Daten nur für den Normalzustand vorhanden. Es gibt also keine Daten zu den Anomalien. Das Beispiel des Flugzeugmotors gehört zu dieser Kategorie. Die Tatsache, dass dieses Szenario realen Bedingungen entspricht, macht es zu einem sehr aktiven Forschungsbereich.

Die Schwierigkeit liegt hier in der Schaffung eines vollständigen Modells, welches sämtliche normalen Daten abbildet. Man muss darauf achten, dass dieses Modell nicht zu allgemein wird und Anomalien nicht als normale Größen betrachtet werden. (siehe Artikel: «Die fünf grössten Schwierigkeiten der Anomalieerkennung» Abschnitt „Wahl der Entscheidungsgrenze“).

Unüberwachte (unsupervised) Anomalieerkennung:

Das letzte Szenario erfordert keine gekennzeichneten Daten. Es gibt also einen Datenhaufen ohne, dass die Information vorliegt ob die Daten zu einer Anomalie gehören oder ob alles in Ordnung war. Deswegen ist dies das am häufigsten anwendbare Szenario. Um die Anomalien zu identifizieren, geht der Algorithmus grundsätzlich davon aus, dass es weitaus mehr Normwerte als Anomalien gibt.

Im Beispiel der Erkennung eines Kreditkartendiebstahls würde der Algorithmus auf sämtliche verfügbaren Transaktionen angewandt. Er würde die Transaktionen mit sehr großen Beträgen als anormal betrachten, da diese viel seltener auftreten. Jedoch wären betrügerische Transaktionen mit kleinen Beträgen schwieriger aufzudecken. Es sei darauf hingewiesen, dass der Algorithmus in einem realen Fall ebenso weitere Parameter, wie Transaktionsdatum, Ort, gekaufte Ware, usw. in Betracht ziehen würde.

Veranstaltung: Digitale Trans­formation im KMU

Die Digitalisierung der Welt – insbesondere der industriellen – ist in aller Munde. Und wir von LeanBI spüren in unserem Umfeld nicht nur grosses Interesse an diesem Thema, sondern auch eine gewisse Unruhe und Sorge, „den Zug zu verpassen“:
Beinahe täglich werden wir mit Fragen konfrontiert wie: „Wie findet ein KMU den besten Einstieg in die Thematik?“, „In welchem Bereich lässt sich am einfachsten oder schnellsten Nutzen erzeugen?“ oder „Wie machen es andere – und welche Fehler wollen wir vermeiden?“. Zusammen mit unseren Kunden konnten wir hier schon viele befriedigende Antworten erarbeiten.

Digital_Enterprise_Forum_Lucerne

 

Diese Fragen bewegen offensichtlich sehr viele Firmen im In- und Ausland, oft aber mangelt es dabei an ganz konkreten, in die Praxis umsetzbaren Schritten. Und genau hier setzt das Digital Enterprise Forum Lucerne (DEFL) am 2. Mai 2017 an: „Es zeigt anhand von praktischen Beispielen, was hinter den verschiedenen Themen der Digitalisierung steckt und wie Firmen diese heute bereits umgesetzt haben“ (Zitat).

Programm

Das Programm besteht am Vormittag aus Impulsreferaten und Praxisbeispielen zu den Themen IoT, E-Commerce, Bots und Industrie 4.0. Der Nachmittag der Veranstaltung ist der Praxisteil: Umsetzungspartner aus den verschiedensten Bereichen zeigen ihre bereits umgesetzten Digitalisierungs-Projekte. Hier können Sie sich Ideen und Anregungen für Ihr eigenes Unternehmen holen und mit den erfahrenen Spezialisten Ihr individuelles Anliegen diskutieren. Auch wir von LeanBI sind dort mit einem eigenen Stand und einem Kurzvortrag zum Thema „Produktionsoptimierung“ vertreten. Das detailierte Programm finden Sie hier im Veranstaltungsprogramm. Natürlich freuen wir uns, wenn Sie uns dort besuchen und wir Ihre ganz spezielle Situation gemeinsam besprechen können.

Ziel der Veranstaltung:

Denn das ist genau das Ziel der Veranstaltung: Sie haben eine klare Vorstellung davon gewonnen:

  • was die ersten konkreten Umsetzungsansätze und -Schritte in Ihrem KUM sein könnten
  • wie Sie und Ihr Unternehmen am besten und schnellsten zu ersten nutzbringenden Resultaten kommen können
  • und vielleicht sogar schon, welche Projekte Sie mit welchen Spezialisten umsetzten könnten

Anmeldung

Sie können sich zum DEFL am 2. Mai 2017 direkt über www.defl.ch anmelden. Am besten verwenden Sie dafür unseren Kunden-Promo-Code LeanBI@DEFL, dank dem sich die Anmeldegebühr auf Fr. 250 (anstatt Fr. 350) reduziert.

Big Data in der Prozessindustrie: Rückblick auf die Dechema

dechema

 

Geboten wurden uns am Praxisforum der Dechema zum Thema Big Data in der Prozessindustrie eine spannende Mischung aus Impulsvorträgen, Erfahrungsberichten und Anbietervorträgen. Und nicht zu vergessen die spannenden Gespräche an unserem Stand, wo wir in Zusammenarbeit mit unserem Partner acs ag unsere Demos zum Thema Advanced Analytics vorstellen durften.

 

Natürlich haben uns besonders die Erfahrungsberichte aus der Prozessindustrie zum Thema Advanced Analytics interessiert. Hervorgestochen sind dabei die Vorträge von Clariant, DLR/BASF, DFKI/Saarstahl und dem Frauenhofer Institut über die wir hier berichten wollen.

 

 

Clariant: Big Data Analytics for Batch Processes

 

Frau Sindy Thomas hat uns aufgezeigt, warum das Thema Big Data/Advanced Analytics zu Oberst auf der Agenda des Management der Clariant steht. Es sind die in den letzten Jahren stark gefallenen Kosten zur Aufbereitung der Daten und die Bereitschaft der Gesellschaft zum Thema IoT, die hier als wichtigste Faktoren genannt werden. Übergeordnet steht bei den Big Data Vorhaben der Clariant das Ziel, den Entscheidungsprozess massiv zu beschleunigen. Frau Thomas hat uns anschaulich am Beispiel der Batch-Prozess-Analyse demonstriert, wie ein solches Thema im Hause der Clariant angepackt wird. Die Visualisierung der Daten steht dabei zuvorderst. Das ist genau das Thema, dass auch wir mit unseren Visualisierungstools ins Zentrum stellen. Und um ein erfolgreiches Projekt zu realisieren benötigt es nicht nur Daten, Algorithmen und IT-Infrastruktur, sondern besonders auch die talentierten Data Scientist, die gemeinsam mit den Ingenieuren Informationen aus den Daten generieren können.

 

 

DLR/BASF: Frühzeitige Erkennung und Entscheidungsunterstützung für kritische Situationen im Produktionsumfeld

 

Data Collection (Datensammlung) und Data Preparation (Datenaufbereitung) sind die grossen Herausforderungen in einem Big Data Projekt, wie die BASF ausführt. Ziel war ein Assistenzsystem auf die Beine zu stellen, sodass z.B. Foaming Events (Schaumbildung in den Kolonnen) oder Signalabweichungen frühzeitig prognostiziert werden, um dann das Betriebspersonal rechtzeitig zu warnen. Das Ziel wurde erfolgreich erreicht, aber der Aufwand für die Big Data Infrastruktur und Datenvorbereitung war gross. Wir von der LeanBI bieten für einen solchen Fall vorbereitete Infrastrukturen und geeignete Tools für die Datenaufbereitung an. Damit können genau da, wo hohe Kosten anfallen, Projekte so redimensioniert werden, dass sogar KMU’s sich dies leisten können.

 

 

iProduct- Big Data Analytics in the Steel Industry

 

Herr Emrich vom DFKI hat uns in diesem eindrücklichen Referat aufgezeigt, wie ein solches Thema in der Stahlindustrie angegangen wird. Schliesslich ist die Stahlerzeugung auch ein verfahrenstechnischer Prozess (Reduktion, Stahlerzeugung, Giessen, Walzen, Fertigung). Ziel war im Casting Prozess (Giessprozess) die Stahlqualität zu erhöhen, ein besseres Warnsystem im Prozess einzuführen, um dann auf der Grundlage der gemessenen Daten bessere Entscheidungen treffen zu können. Auch die Optimierung der Produktionsplanung und Erhöhung des Gesamtdurchsatzes sind wichtige Ziele des Projekts. Grosse Herausforderung ist und war die verschiedenen Komponenten im Prozess und dazugehörigen Datenströme in eine analytische konsistente Sicht zusammenzubringen. Dabei sind Themen wie Abtastrate am Sensor,  Messungsverzögerungen, Messfehler, Messausfälle von grosser Bedeutung. Das Projekt hat schon einiges erreicht, ist aber noch nicht am Ende.

 

 

Frauenhofer IFF: USE CASES OF DATA ANALYTICS IN THE PROCESS INDUSTRY

 

Das Frauenhofer IFF hat anhand verschiedener Use Cses aufgezeigt, dass man auch mit kleinem Budget gute Resultate zu erreichen sind. Besonders im Bereich der Soft Sensors war das Institut erfolgreich unterwegs. Mit algorithmischen Modellen werden Messungen so zusammengefasst, dass  sich teure Messinstrumente  eliminieren lassen. Sei es bei der Abgasreinigung, bei der Digestion (Gärung) oder bei der Prognose des Stromverbrauchs konnten sehr schöne Use Cases umgesetzt werden.

 

Alles in allem zwei spannende Tage für Wissenschaftler, Data Scientist, Ingenieure und Beratern. Klicken Sie auf die Links um mehr zu den Präsentationen zu erfahren.

Success Story Woodman: Reporting, Budgetierung und Simulation

Woodman wurde 2010 mit Sitz in Zug in der Schweiz gegründet und ist ein FINMA-registriertes unabhängiges Unternehmen für Asset und Wealth Management. Innerhalb des internationalen Wachstumspfads suchte Woodman eine zentrale Reporting und Budgetierungslösung, mit der Möglichkeit, in diesem Tool zusätzlich geschäftskritische Prozesse abbilden zu können.

 

Die angedachte Lösung sollte weit über ein konventionelles BI und Budgetierungstool hinausgehen. Neben der Abbildung verschiedener Prozesse sollte das Tool auch die Möglichkeit geben, Simulationen zu fahren bzgl. von Veränderungen von Währungen, Produkten und Kunden sowie deren Auswirkungen auf das Geschäft.

 

Woodman hat sich für LeanBI mit Jedox entschieden. Die Kombination ist einfach, schnell und flexibel und entspricht genau den heutigen und den zukünftigen Bedürfnissen der Unternehmung.

 

image_woodman

 

Projektziele

  • Eine zentrale Sicht auf Ist- und Budget kann aus den verschiedenen ERPs entlang der verschiedenen Profit- und Cost Centers automatisiert bezogen werden
  • Mithilfe des komplexen Kostenallokationsprozess ist der Erfolg der Profitcenter klar erkennbar
  • Über Budgettemplates können die Profitcenter Verantwortliche Ihre Budgetierung zentral ausführen
  • Mit der Lösung können Simulationen gefahren werden, um damit das zukünftige Geschäft besser abzuschätzen

 

Kundennutzen

  • Das Management Reporting mit zentraler Datenhaltung gibt eine eindeutige Sicht auf den Erfolg
  • Die Lösung gibt zusätzlich eine Sicht auf das zukünftige Geschäft und erlaubt verlässliche Entscheidungen
  • Ausgaben bis auf den Mitarbeiter hinunter sind transparent

 

Lösungsweg

  • Erarbeitung der Grundlagen der Spezifikation in zwei Workshops
  • Verfeinerte Fachspezifikation Hand in Hand mit der Umsetzung in enger gemeinsamer Zusammenarbeit von Woodman und LeanBI
  • Ausführliches Testing der Logiken mittels Testreports
  • Produktivsetzung und Schulung der Fachanwender

KTI Projekt zu Predictive Maintenance gestartet!

Wir freuen uns den Start unseres KTI Projekts mitzuteilen:
leanPredict: Erforschung und Entwicklung einer agilen Lösung zur Zustandsüberwachung und vorausschauenden Instandhaltung für intralogistische Systeme.

 

Predictive Maintenance für intralogistische Systeme ist aufgrund vieler bewegter Komponenten aufwändig und komplex. Durch die Erforschung von Idealkombinationen aus neuen, leistungsfähigen Internet of Things-Sensortechnologien und Advanced Machine Learning-Algorithmen können Aufwand und Komplexität des Prozesses stark reduziert werden. Ziel ist es, eine skalierbare und ökonomische Lösung nach Baukastenprinzip für Materialflusssysteme zu schaffen.

 

Das KTI Projekt wird mit folgenden Partnern umgesetzt:

KTI Projekt zu Predictive Maintenance: leanPredict
 

Predictive Maintenance (PdM) bietet signifikante Einsparpotenziale in der Instandhaltung. Die kontinuierliche, durch Sensoren gestützte Erfassung von Maschinenzustandsdaten ist die Basis für eine algorithmenbasierte Prognose von Maschinenausfällen und ermöglicht damit eine Fehlervermeidung durch rechtzeitige Wartung. So lassen sich in der Instandhaltung beachtliche Kosteneinsparungen von bis zu 40 Prozent erzielen. Jedoch ist die Realisierung der PdM bis dato sehr aufwändig und komplex, da die meisten Maschinen bisher mit massgeschneiderter Sensorik nachgerüstet und für Ausfallprognosen Algorithmen speziell entwickelt werden müssen. Insbesondere bei intralogistischen Systemen, die aus zahlreichen dem Verschleiss ausgesetzten, viel bewegten Komponenten bestehen, erforderten PdM-Projekte deshalb grosse Investitionen.

 

Vor diesem Hintergrund ist es das Ziel des vorliegenden FuE-Projekts, eine End-to-End-Lösung für Predictive Maintenance nach Baukastenprinzip zu entwickeln, die durch Einsatz von neuen, leistungsfähigen Plug-and-Play-Sensoren und -Algorithmen die Komplexität des Prozesses stark reduziert. Neuartig ist dabei die modulare Integration von schlüsselfertigen Internet-of-Things-Messsystemen und vorspezifizierten Algorithmen, die nach Bedarf flexibel innerhalb verschiedener Anwendungsfälle der Intralogistik eingesetzt werden können, sowie eine globale Überwachungsstrategie, die nur wenigen Messstellen erfordert. Auf diese Weise wird ein skalierbares und ökonomisches Angebot geschaffen, das es Unternehmen mit Stetigförderanlagen ermöglicht, an den Vorteilen einer vorausschauenden Instandhaltung zu partizipieren.

 

Die drei verschiedenen Arten von Anomalien

Der dritte Artikel unserer Anomalie-Reihe beschreibt die verschiedenen Arten von Anomalien, die man üblicherweise vorfindet. Wir können die Anomalien in drei Gruppen einteilen: Punktuelle, kontextuelle und kollektive Anomalien. Es ist wichtig die Art der Anomalie richtig zu identifizieren, um anschließend den für deren Erkennung passendsten Algorithmus auszuwählen. Die zu betrachtende Art der Anomalie ist von dem jeweiligen Problemfeld abhängig. Wie im vorigen Artikel erläutert, muss in der Medizin eine einzelne Abweichung der Körpertemperatur eines Patienten als anormal betrachtet werden. Während im Gegensatz dazu Abweichungen auf den Märkten im Finanzwesen äußerst üblich sind. Ebenso ist es möglich, dass man mehrere Anomalien gleichzeitig ausfindig machen will, was die Problematik komplexer und die Wahl des Erkennungsalgorithmus komplizierter macht.

Punktuelle Anomalien:

Punktuelle Anomalie
Abb. 1: Punktuelle Anomalie im zweidimensionalen Raum

 

Wenn ein einziger Wert im Vergleich mit den restlichen Daten als anormal betrachtet werden kann, wird dieser als punktuelle Anomalie definiert. Das Beispiel der Abweichung der Körpertemperatur eines Patienten veranschaulicht dies perfekt. Visuell stellen wir diese Art der Anomalie in Abb. 1 in einem zweidimensionalen Raum durch die beiden sehr weit von der Datenwolke mit der Basis (0,0) entfernten Punkte dar.

Kontextuelle Anomalien:

Kontextuelle Anomalie der Temperatur im Sommer
Abb. 2: Kontextuelle Anomalie der Temperatur im Sommer. Bildnachweis: Anomaly detection: A survey, V. Chandola, A. Banerjee, V. Kumar, 2009, p.58

 

Wenn ein Wert in einem spezifischen Kontext als anormal berachtet wird, sonst aber nicht, handelt es sich um eine kontextuelle Anomalie. Die Abb. 2 stellt die Daten eines Temperatursensors für den Zeitraum eines Jahres dar. Die Werte t1 und t2 sind ähnlich, aber die sehr niedrige Temperatur t2 wurde im Sommer gemessen, was bezogen auf den Kontext, dass es also im Sommer warm ist, nicht normal ist.

Kollektive Anomalien:

Kollektive Anomalie des Elektrokardiogramms
Abb. 3: Kollektive Anomalie am Beispiel eines Elektrokardiogramms. Bildnachweis: Anomaly detection: A survey, V. Chandola, A. Banerjee, V. Kumar, 2009, p.58

 

Wenn eine ganze Datengruppe bezogen auf die restlichen Daten anormal ist, werden die Daten dieser Gruppe als kollektive Anomalien definiert. Um diese letzte Anomalie darzustellen, nehmen wir das Beispiel des Elektrokardiogramms. In Abb. 3 fällt auf, dass das Signal innerhalb eines anormal langen Zeitraums stabil ist (etwa zwischen t=1100 und t=1400). Um diese Anomalie ausfindig zu machen, ist es nötig, alle Werte des Intervalls zu berücksichtigen. Weder deren Wert, noch deren Kontext sind anormal, sondern deren Wiederholung.

 

Anhand dieser drei Anomaliearten wird deutlich, dass es entscheidend ist, die Anomalien gleich zu Beginn richtig zu charakterisieren. Ein Algorithmus, der darauf ausgelegt ist, punktuelle Anomalien zu erkennen, wird nicht in der Lage sein, kontextuelle oder kollektive Anomalien zu erkennen. Dies trifft im umgekehrten Fall ebenfalls zu.

 

Im nächsten Artikel «Die drei Szenarien der Anomalieerkennung» befassen wir uns mit der Problematik der zur Verfügung stehenden Daten, genauer mit deren Art und Verfügbarkeit. Verschiedene Szenarien werden dargestellt und erläutert.