Einladung Seminar: Data Science in der Industrie 4.0

Am Dienstag, 21. März 2017 führen wir zusammen mit unserem Partner M&F Engineering AG ein einzigartiges Seminar zum Thema „Praktischer Einsatz von Machine Learning und Data Science im industriellen Umfeld“ durch. Das Seminar soll Ihnen einen Einblick in den aktuellen Stand der Technik bezüglich Data Science und Machine Learning ermöglichen und Inputs liefern, wie Profis an das Thema herangehen.

Takeaways

  • Wie gehe ich vor, um in der eigenen Firma Potentiale zu identifizieren, wo durch Machine Learning bzw. Data Science echter Mehrwert generiert werden kann?
  • Wie kann mittels moderner Tools schnell ein Prototyp erstellt werden, um die Machbarkeit der Idee abzuschätzen?
  • Welches sind im Moment die meist verwendeten Algorithmen und was können diese?

WordCloud: Industrie 4.0 Veranstaltung: 21.3.17, 9:00-13:30, Fahrweid ZH

Die Agenda des Seminars

ab 8:30 Registrierung und Kaffee

 

9:00 Begrüssung
Reto Bättig, Geschäftsführer, M&F Engineering AG

 

9:10 Einführung (Kurze Vorstellung LeanBI und Data Analytics Use Cases)
Marc Tesch, Geschäftsführer, LeanBI AG

 

9:30 Der Weg von Big Data zu Nutzen und Wert
Wolfgang Weber, Change Management, LeanBI AG

 

10:00 Übersicht über die wichtigsten Algorithmen und deren Möglichkeiten
Stefan Pauli, Data Scientist, LeanBI AG
Jérôme Bovay, Data Scientist, LeanBI AG

 

10:30 Pause

 

11:00 Fortsetzung Algorithmen und Möglichkeiten
Stefan Pauli, Data Scientist, LeanBI AG
Jérôme Bovay, Data Scientist, LeanBI AG

 

11:30 Data Science Projekt-Beispiel: Geberit
Reto Bättig, Geschäftsführer, M&F Engineering AG

 

11:40 Fast Prototyping, Inspiration was ist möglich, Demo
Stefan Pauli, Data Scientist, LeanBI AG

 

12:15 Zusammenfassung und Abschlusswort
Wolfgang Weber, Change Management, LeanBI AG

 

12:30 Stehlunch

Anmeldung

Die Veranstaltung ist leider schon ausgebucht. Sie können sich auf die Warteliste setzten lassen. Dies erfolgt über die M&F Engineering Homepage: Hier anmelden. Alternativ können Sie sich auch direkt bei uns melden ( +41 79 247 99 59 oder info@leanbi.ch), um direkt die für Sie spannenden Beiträge zu erhalten.

Dieses Seminar kostet CHF 90.- pro Teilnehmer und beinhaltet eine ausführliche Dokumentation sowie sämtliche Speisen und Getränke. Aus Erfahrung der vergangenen Jahre ist dieses Seminar immer nach kürzester Zeit ausgebucht. Wir empfehlen Ihnen, Ihren Platz jetzt gleich zu buchen.

Veranstaltungsort

Das Seminar findet bei unserem Partner M&F Engineering AG an der Querstrasse 17 in 8951 Fahrweid statt.

Die fünf grössten Schwierigkeiten der Anomalieerkennung

In diesem zweiten Artikel unserer Anomalieerkennungs-Reihe stellen wir die Schwierigkeiten bei der Anomalieerkennung dar.

Wir lassen hier den Prozess der Erhebung und Speicherung der Messungen ausser Acht, obgleich dieser ebenfalls anspruchsvoll sein kann. Wir nehmen an, dass die Daten in der gewünschten Form zur Verfügung stehen. Falls es notwendig wäre, das Problem in seiner Gesamtheit zu betrachten, müsste man die Art der Sensoren, deren Einstellung, deren Datenübertragung sowie die Art der verwendeten Datenbasis berücksichtigen.

Anomalie graphisch dargestellt
Bildnachweis: www.dbta.com
 

Im Folgenden werden die fünf grundsätzlichen Herausforderungen beschrieben:

1. Wahl der Entscheidungsgrenze

Im vorhergehenden Artikel wurde das Beispiel einer Medikamentenkapsel genannt, deren Gewicht um 20% vom üblichen Gewicht abwich. Ist dies noch immer problematisch, wenn der Gewichtsunterschied nur 2% beträgt? Und wie ist es bei 5%? Es ist unschwer zu erkennen, dass es nicht einfach ist, einen Grenzwert zu bestimmen. Was hat obendrein mit den Werten zu geschehen, die sehr nahe an den Grenzwert heranreichen (beispielsweise 4,9% und 5,1% bei einem Grenzwert von 5%)? Die Sache wird komplizierter, wenn man weitere Dimensionen hinzuzieht. In unserem Beispiel liefe es darauf hinaus, sich mit weiteren Zusatzinformationen zu befassen: PH-Wert, Produktionstemperatur, usw.

2. Identifikation der Anomalien

Manchmal sind Anomalien die Folge böswilliger Handlungen, wie im Falle einer Cyberattacke auf einen Server. Der Angreifer wird alle Hebel in Bewegung setzen, damit sein Verhalten normal erscheint. Dies macht die Definition einer Anomalie komplexer und deren Erkennung schwieriger.

3. Zeitliche Änderung der Anomalie

In gewissen Einsatzbereichen kann sich die Definition einer Anomalie mit der Zeit weiterentwickeln. Beobachtungen, die zunächst als normal eingestuft wurden, können später einmal nicht mehr so bewertet werden, und umgekehrt. Nehmen wir beispielsweise an, dass eine Maschinenbewegung schlecht reguliert ist was eine Reibung zwischen zwei Metallteilen mit sich bringt. Nun ist ein Quietschgeräusch zu hören, was die Identifikation der Anomalie ermöglicht. Das Metall kann sich jedoch mit der Zeit abwetzen. Das Quietschgeräusch wird nach und nach verschwinden, aber die Reibung selbst nicht. Die Art der Anomalie hat sich mit der Zeit weiterentwickelt.

4. Durch Messgeräusche verfälschte Daten

Die zur Verfügung stehenden Daten können ein Rauschen enthalten. Dieses wird in der Regel durch Messgeräte oder Sensoren verursacht. Nun wird es schwierig, die Anomalien von dem Rauschen zu unterscheiden. Wohlgemerkt sind die gesuchten Anomalien selbst manchmal Geräusche.

5. Schwierigkeit einer Verallgemeinerung

Es ist schwierig, einen Anomalieerkennungsalgorithmus zu verallgemeinern, da die Anomalien selbst stark von dem jeweiligen Problemfeld abhängen. In der Medizin muss eine einzelne Abweichung der Körpertemperatur eines Patienten als anormal angesehen werden. Demgegenüber sind Abweichungen auf den Märkten im Finanzwesen völlig alltäglich.

Im nächsten Artikel «Die drei verschiedenen Arten von Anomalien» befassen wir uns mit den Eigenschaften von punktuellen, kontextuellen und kollektiven Anomalien.

Was versteht man unter Anomalieerkennung?

Man sagt zwar „Irren ist menschlich“, aber auch Maschinen machen manchmal Fehler!
In der Industrie ist es heutzutage Alltag sich von einer korrekt funktionierenden Produktionslinie oder der guten Produktqualität zu vergewissern. Bei solchen Prozessen wird unterschiedlich geprüft, seien es nun optisch oder mit physikalischen Sensoren. Zum Beispiel wird ein Schreiner seinen neu hergestellten Stuhl auf Schleiffehler kontrollieren, während ein Hersteller von Elektrokabeln überprüfen wird, ob diese den Strom gut leiten. Beide sind auf der Suche nach möglichen Anomalien. Die korrekte Erkennung von solchen Anomalien ist also entscheidend, um die Produktqualität sicherzustellen und die Produktion zu optimieren.

 

In einer computerisierten und vernetzten Welt haben wir es hier mit der Datenverarbeitung und deren Analyse verbundenen Problemansatz zu tun. Beim Schreiner geht es darum, anhand von Fotos des Stuhles die Fehler zu entdecken. Beim Kabelhersteller werden die elektrischen Sensordaten analysiert.

Anomaly Detection

Bild: Die zentralen Elemente einer Anomalieerkennung.

 

Die automatisierte Anomalieerkennung in einem Dataset ist eine komplexe Aufgabe, die Bereiche wie maschinelles Lernen, Statistik und Data-Mining einbezieht. Die Beschaffenheit der Daten, die vorhandenen Informationen, die Art der Anomalie und das erwartete Ergebnis bestimmen die Wahl des anzuwendenden Algorithmus. Dies sind die Schlüsselelemente einer Anomalieerkennungsproblematik (siehe Abbbildung).
Was eine formalere Definition des Problemfeldes angeht, so kann diese folgendermaßen lauten: „Die Anomalieerkennung wird definiert als Suchen nach Strukturen in einem Dataset, welche sich nicht erwartungsgemäß verhalten.“ [Anomaly detection: A survey, V. Chandola, A. Banerjee, V. Kumar, 2009, p.58].

 

Praktischer ausgedrückt, handelt es sich darum zu erkennen, welche Werte unter all den Daten problematisch sind. Zum Beispiel wird ein Kreditkartenanbieter versuchen, betrügerische Transaktionen zu identifzieren. Wenn das System einen Kauf über mehrere Tausend Franken registriert, obwohl Sie gewöhnlich Ihre Karte nur benutzen, um Ihre Zugfahrkarte zu lösen, ist die Wahrscheinlichkeit hoch, dass Ihnen Ihre Karte oder Ihre persönliche Identifikationsnummer gestohlen wurde. In einem anderen Zusammenhang, wenn die Fertigungslinie eines pharmazeutischen Unternehmens ein Endgewicht einer Medikamentenkapsel feststellt, welches 20% über dem gewohnten liegt, hat sich wahrscheinlich in deren Fertigung ein Fehler eingeschlichen.

 

Die betroffenen Bereiche sind also sehr vielfältig und die Lösungswege unterscheiden sich oft. Im nächsten Artikel «Die fünf grössten Schwierigkeiten der Anomalieerkennung» unserer fünfteiligen Anomalieerkennungs-Reihe beleuchten wir die Gründe für die Komplexität des Problemfeldes der Anomalieerkennung.

Anomalieerkennung in fünf Kapiteln

Diese Artikelreihe ist eine Einleitung zur Anomalieerkennung. Die wesentlichen Herausforderungen, die Schwierigkeiten sowie die technischen Besonderheiten der Anomalieerkennung werden im Laufe der folgenden fünf Kapitel dargestellt. Abschluss dieser Reihe ist ein praktisches Beispiels von Anomalieerkennung im Bereich der Industrie, wie wir es bei leanBI vorgefunden haben.

Anomalie graphisch dargestellt
Bildnachweis: www.dbta.com

Inhalt der Anomalieerkennungs Serie

2. Strategietag Industrie 4.0 – Die Digitalisierung ist angekommen.

Es gibt nur noch wenige Industriefirmen, bei denen Industrie 4.0 nicht Teil der Strategie geworden ist – so Eugen Albisser zum Auftakt des Strategietages. Und die Umfragen der Credit Suisse, der Swiss Mechanic und der Staufen Inova zeigen, dass sich ein Grossteil der Firmen mit dem Thema der Smart Factory auseinandersetzt. 30% führen bereits operative Einzelprojekte durch, die zum Teil auch schon umgesetzt sind. Die meisten Firmen wollen mehr Nutzen aus ihren Daten ziehen. Allerdings bremst fehlendes digitales Know How in den Firmen diese Entwicklung, d.h. der Weg von den Daten zum Nutzen ist oft noch unklar.

2_Strategietag_Industrie_40

Bei den meisten Firmen steht die Produktion, und zwar mit dem Aspekt der Effizienzsteigerung im Vordergrund. Aber agile Forschung, Entwicklung, sowie Logistik und Lagerhaltung rücken langsam, aber stetig ebenfalls in den Fokus. Dies gilt besonders für Deutschland (siehe Abbildung). Allgemein wird die Digitalisierung heute vor allem mit Optimierung und eher noch wenig mit Kundennutzen verknüpft. Wir von LeanBI denken, dass sich das in den nächsten Jahren jedoch stark ändern wird.

Prioritäten der Digitalisierung
Abb.1: Prioritäten der Digitalisierung (Quelle Studie Staufen.Inova 2016)

 

Der Strategietag Industrie 4.0 bot viele interessante Vorträge. Besonders spannend fanden wir die Vorträge der Industriefirmen RUAG, GF Machine Solutions und SIEMENS. Deshalb hier ein kurzer Abriss dieser drei Vorträge:
Urs Breitner, CEO der RUAG, hat uns hautnah an die Grenzen der Industry 4.0 Security geführt. Die RUAG wurde 2015/2016 gehackt und der Cyberangriff dauerte mehrere Monate, das Schadensmass war auch trotz intensiver Analyse kaum abschätzbar. Und das, obwohl RUAG mehrere Monate den Trojaner hatte walten lassen und sein Verhalten auskundschaftete. Dabei nahm die RUAG ganz bewusst einen weiteren Datenverlust in Kauf. Nur so konnten eine Härtung und schliesslich eine Bewältigung des Vorfalls geschehen. RUAG ist durch Bewältigung des Angriffs glaubwürdiger und stärker aus der Krise herausgekommen, als dass es dem Sicherheitsdienstleister einen Imageschaden bereitet hätte. Und klar wurde: Cyber-Kriminalität wird in Zukunft unser ständiger Begleiter sein, und ein guter Schutz der Daten ist nur durch starke Trennung der Daten vom Internet zu bewältigen. Und mit der Digitalisierung der Fabrikation wird das Leben nicht einfacher: Fabrikationsnetze sind zwar dem Internet – derzeit noch- weniger ausgesetzt, aber auch weniger geschützt. Es wäre fahrlässig, bei der Digitalisierung der Fabriken nicht ein zentrales Augenmerk auf die Cyber-Security zu richten.

 

Cyberattacke der Ruag
Abb.2: Cyberattacke der RUAG: Klassifizierung des Vorfalls

 

Thomas Wengi, Director GF Machine Solutions, sprühte nur so vor Enthusiasmus. Kein Wunder, denn die GF ist sehr erfolgreich, und unter Wengis Leitung wurde sogar ein neuer Produktionsstandort in der Schweiz aufgebaut. Bei der GF wird mehr als die Hälfte des Umsatzes mit Produkten erzielt, welche während der letzten 3 Jahre eingeführt wurden. Flexibilität und Effizienz sind dabei für den Erfolg ausschlaggebend. Und die Workshops mit der Methode des Human-centered Design (siehe Abb. 3) haben gezeigt, dass die «Effizienz-Zitrone» noch lange nicht ausgedrückt ist.
So setzt die Spindelfertigung mit Losgrösse Eins vollkommen neue Massstäbe. Die Spindel ist ein hochkomplexes Produkt und dennoch: wenn ein Kunde bestellt, berechnet das System bereits den Liefertermin. Das funktioniert nur, wenn schon bei der Kundenbestellung die Bestellung der nötigen Komponenten automatisch ausgelöst wird und diese geplant werden, um danach eine hochflexible Fertigung zu durchlaufen: beeindruckend.

 

Human centered Designe: Inspiration, Ideation, Implementation
Abb. 3: Die Wellen des Human-centered Design

 

Herr Eike-Oliver Steffen, Leiter Solution & Service Portfolio der SIEMENS Schweiz AG, zeigte in seinem höchst spannenden Vortrag, wie Smart Data zu Business gemacht wird. Nur die Kundenstimme zählt! 80% der Gebäudekunden möchten visualisierte Daten, 69% wollen aufgrund der Daten verbesserte Services beziehen. Und die Datenverfügbarkeit soll überall und mobil stattfinden. Siemens baut seine digitale Service Plattform hochprofessionell und absolut kundenzentriert auf und hat damit Erfolg am Markt.

 

Die Service Plattform der Siemens Building Technologies
Abb. 4: Die Service Plattform der Siemens Building Technologies

 

Und die Abschluss Keynote zu später Stunde war dann ein letztes Highlight des Tages. Mit der Kraft der Sonne rund um die Erde hat nicht nur gezeigt, dass mit der Sonne eine unendliche Energiequelle zur Verfügung steht, sondern auch die Kraft der Motivation von Louis Palmer mit seinem Solartaxi Berge versetzen kann. Das Schweizer „Yes- we Can“ ist wahrhaftig nicht veraltet.
Alles in Allem ein gelungener Tag

Rückblick: Data Science Seminar

Für ihre Software-Entwicklung-Trainees veranstaltet die M&F Engineering AG jeden Monat ein spannendes Ausbildungsprogramm. Im Januar war das Thema Data Science, zu welchen wir von LeanBI AG ein Seminar vorbereitet haben. Wir stellen im folgenden Beitrag kurz den Inhalt dieses eintägigen Seminars vor.

 

Ziel des Seminars war es den Software-Entwickler-Trainees die heutigen Möglichkeiten von Data Science, mit Daten Aufbereitung, Daten Visulisierung, Machine Learning und Clustering zu zeigen. Auch sollten sie erkennen, was mit moderner Data Science Software möglich und welchen neuen Business Modelle durch Datenanalyse möglich werden. Basierend auf diesen Wünschen von M&F Engineering AG haben wir das folgende Programm zusammengestellt:
Programm Data Science Seminar: Begrüssung, Demo Sensitivität, Algorithmen Theorie, Hands-on, Business Cases

  • Begrüssung: Wie wäre die Welt, wenn man sich nicht mehr begrüssen würde…
  • Demo Sensitivität: Zum Start zeigten wir in einer Demo wie Machine Learning eingesetzt werden kann um die Produktequalität in der Industrie zu verbessern. Danach konnte sich jeder Teilnehmer etwas Konkretes unter Data Science im industriellen Bereich vorstellen.
  • Algorithmen Theorie: Wir beschäftigen uns mit Machine Learning- und Clustering-Algorithmen und ihren Anwendungsmöglichkeiten. Dadurch wussten die Trainees wie die Algorithmen in etwa funktionierten und wo und wie sie eingesetzt werden könnten.

 

Clustering, Machine Learning
Bild: Wie Clustering und Machine Learning die Datenanalyse vorantreibt

  • Hands-on: Jeder Teilnehme setzte Machine Learning- und Clustering-Algorithmen im Data Science Programm Dataiku ein. Die ersten Schritte im Programm waren Klick für Klick vorgegeben, später war jeder Trainee frei die Informationen in den Daten zu finden, welche ihn interessierten. Die Daten stammen von einem Kunden der M&F Engineering AG. Dadurch konnte jeder Trainee die gelernten Algorithmen direkt mit echten Daten ausprobieren und sehen wie effizient sich heute mit Data Science Programmen arbeiten lässt.

 

Foto des Hands-on Teiles des Data Science Seminars

Bild: Impressionen vom Hands-on, bei welchem alle Teilnehmer ihre Daten Analysierten
 

  • Business Cases: Um Datenanalysen in der Industrie umzusetzen muss ein klarer Business Nutzen erkennbar sein. Um Einsatzmöglichkeiten mit einem grossen Nutzen zu finden haben wir ein Brainstorming gemacht. Dadurch sind ein paar geeignete Einsatzmöglichkeiten gefunden worden. Einige werden wir weiterverfolgen.

 

Falls Sie sich unverbindlich über ein Data Science Seminar der LeanBI informieren möchten freuen wir uns auf Ihren Anruf oder Ihr Email: 079 247 99 59 oder info@leanbi.ch.

Big Data in Process Industry

Sie möchten Ihre Produktion optimieren und schon während der Produktion wissen, wie die Qualität Ihrer Produkte sein wird und an welchen Parametern Sie stellen müssen, um diese wie gewünscht zu erreichen. Mächtige Big Data Analytics – Methoden holen diese Information aus Ihren Prozessdaten.

Die LeanBI AG ist auf diesem Gebiet in Zusammenarbeit mit der acs AG erfolgreich aktiv. Wir möchten Sie auf die Spezialveranstaltung der DECHEMA „BIG DATA in PROCESS INDUSTRY“ am 01. und 02. Februar in Frankfurt a. Main aufmerksam machen, auf der wir mit unserem Partner acs AG auch unsere Lösung an einem Stand vorstellen.
Dechema: Gesellschaft für Chemische Technik und Biotechnologie e.V.

Auf dem DECHEMA-Workshop stellen namhafte produzierende Firmen aus der Prozessindustrie und Dienstleister Ihre Methoden und Erfahrungen vor und diskutieren mit Ihnen über den Nutzen und die Zukunft von Big Data.

Lernen Sie diese Methoden kennen und damit ein neues Werkzeug zur Optimierung Ihrer Prozesse und melden Sie sich für diese Veranstaltung unter http://dechema.de/BigData.html an. Unter Verwendung des Codes iigetfzh erhalten Sie auf die Veranstaltungsgebühr einen Rabatt von 15%.

Wir freuen uns, Sie in Frankfurt an unserem Stand begrüssen zu dürfen.
LeanBI