LeanBI am Finanz & Wirtschaftsforum zum Thema Industrie 4.0

Für freuen uns sehr, einen Beitrag zum Finanz & Wirtschaftsforum am 30. Oktober 2019 zum Thema Industrie 4.0 leisten zu dürfen. Marc Tesch wird über die heutigen Grenzen von AI und IoT in der smarten Fabrik berichten und daraus konkrete Schlüsse für optimale Projektumsetzungen ziehen.

Finanz & Wirtschaft lädt ein, sich mit Praktikern und Digitalexeperten über konkrete Anwendungen von Automatisierung und Vernetzung von Produktionsabläufen auszutauschen. Wo beginnt man und wo lassen sich Pilotprojekte auf die gesamte Produktion übertragen? Und was bedeuten Hype-Themen wie das Internet der Dinge, künstliche Intelligenz oder Machine Learning im industriellen Umfeld?.

Ist die vierte industrielle Revolution schon Realität? Nach Mechanisierung, Elektrifizierung und Automatisierung ist es nun an der Digitalisierung, die Geschäftsmodelle zu revolutionieren. In der smarten Fabrik werden Maschinen untereinander und mit ihrem Umfeld vernetzt. Die Produktion ist nicht mehr standardisiert, sondern wird auf Kundenwunsch individualisiert.

Das Ziel sind einfachere, günstigere Prozesse für eine optimierte Wertschöpfungskette und Produktionslinien, die maximale Leistung bringen. Ungeplante Maschinenstillstände und suboptimale Auslastung gehören in der smarten Fabrik der Vergangenheit an. Die Digitalisierung von Prozessen und die Analyse grosser Datenmengen dürfen den Kundennutzen zu keinem Zeitpunkt aus den Augen verlieren.

Die LeanBI ist dabei mit dem Vortrag « Die Grenzen von AI und IoT in der smarten Fabrik ».

Die Sensorik, Datenvernetzung und Daten-Analytik mit Data Science Methoden hat in den letzten Jahren riesige Fortschritte gemacht. Trotzdem ist nicht alles möglich, was häufig versprochen wird. Das kann zu Fehlschlägen führen. Umso wichtiger ist es, die Grenzen der Technologien zu kennen, um zu priorisieren, was Erfolg verspricht und abzuwarten, wo es noch Entwicklungszeit benötigt. Marc Tesch zeigt anhand konkreter Themen die Grenzen auf und schliesst daraus, wie bei industriellen Digitalisierungsprojekte vorzugehen ist, um gewünschte Ziele zu erreichen.

Wir freuen uns sehr, unsere Erfahrungen in AI und IoT Projekten an diesem Wirtschaftsforum teilen zu dürfen.

Hier finden Sie die das Programm und den Link zur Anmeldung: www.fuw-forum.ch/industrie-4-0-2019

Was AI heute wirklich kann

“People underestimate the capability of AI. They think it is a smart human. It will be much more than that.” Elan Musk, 29.8.2019

In diesem Blog möchten wir Ihnen die heutigen Grenzen der künstlichen Intelligenz aufzeigen. Wir schlagen hier einen Bogen von der Definition über die Geschichte bis zu den heutigen Einsatzgrenzen der künstlichen Intelligenz.

AI Definition

Künstliche Intelligenz (KI), im englischen Artificial Intelligence (AI). befasst sich mit der Automatisierung von intelligentem Verhalten und ist eng mit dem Begriff Machine Learning (ML) verbunden. Inhalt von AI ist es, mit Algorithmen intelligentes Verhalten nachzubilden oder zumindest zu simulieren.

Besonders relevant heute ist AI in seinen Teilgebieten der wissensbasierten Systeme (Expertensysteme), der Mustererkennung und Vorhersage (Prediction) und Robotik.
Auch Data Science ist mit AI stark verbunden. Data Science bezeichnet die Extraktion von Wissen aus Daten, die Mittel hierfür sind Methoden, Prozesse und Algorithmen, wie statistische Verfahren und Verfahren des Machine Learning. Deep Learning ist ein Teilgebiet von Machine Learning.

AI Geschichte

AI hat sich aus vielen theoretischen Überlegungen ab den 20-iger Jahren des 20. Jahrhunderts entwickelt und sich Anfang der 50-iger Jahre erstmals konkret manifestiert. Ab dann hat AI und deren Teilbereiche mehrere Hype-Zyklen durchlaufen. Schon in den 50-iger bestand eine fast grenzenlose Erwartungshaltung bezüglich der Fähigkeit der Computer intelligent zu werden, bspw. zum Schachweltmeister aufzusteigen. Das mit dem Schachweltmeister gelang dann aber erst sehr viel später dem IBM Computer Deep Blue im Jahre 1997. Auch Expertensysteme gab es seit Beginn der 70- Jahre, die schon damals Diagnose Entscheidungen der Ärzte unterstützten, aber in sehr engen Teilbereichen der Medizin. Das Problem damals war, das die Grenzen der Kompetenzen unscharf waren, was teilweise zu Fehldiagnosen führte. Auch die gehypte Fuzzy Logic war eine Errungenschaft, die sich besonders in verschiedenen Maschinensteuerungen etabliert hat, nicht aber einen breiten Durchbruch erreichte. Deshalb sind nach jedem AI-Hype die sogenannten KI- Winter charakteristisch.

Der AI Hype der heutigen Zeit wurde gesellschaftlich durch zwei Events getriggert: IBM Watson, der 2011 den Jeopardy Champion besiegte und AlphaGo, welches den weltbesten Go Spieler 2018 besiegte. Letzteres geschah auf der Grundlage von Deep Learning, welches auf neuronalen Netzen ähnlich eines Gehirns aufbaut. Deep Learning ist so auch die Basis vieler in den letzten Jahren durchgreifender Entwicklungen im Bereich der Bilderkennung, sowie der Sprach- und Textanalyse.

Abb 1: Neurales Netzwerk mit mehreren Lagen (Layers, Lit. Towards Data Science, Training Deep Learning Networks, Rawindra Parmar, 11.9.2018)

AI Durchbrüche heute

Vernetzung und Cloud Services haben die weltweite Datenmenge enorm ansteigen lassen. Big Data wurde zum Mode- und Fluchwort zugleich. Big Data half AI vor wenigen Jahren zum grossen Aufstieg (denn grosse Datenmengen sind häufig die Grundlage von AI), heute scheint es so, als wäre Big Data durch AI abgelöst. Das Thema Big Data ist weiterhin genauso aktuell, aber niemand spricht mehr davon. Genau so wird es AI in wenigen Jahren ergehen. Interessant ist jedoch, dass bei AI ein starker Lawineneffekt ausgelöst wurde. Viele neue Studiengänge sind entstanden und die Politik stopft weiterhin enorme Geldmengen in die Forschung und Entwicklung. AI wurde im Gegensatz zu Big Data politisch, und die heutigen politischen Meinungen gehen soweit, dass einzelne Staaten den Glauben vertreten, mit AI sich und die Welt regieren zu können. Das alles hilft der grossen Popularität.

Vieles ist masslos übertrieben, aber es gab einige erstaunliche technologische Durchbrüche der letzten Jahre, die an eine Allmacht von AI glauben lassen. Und so vertreten zu viele, sogar AI Experten, den Glauben, dass die künstliche Intelligenz die menschliche Intelligenz in weniger als 20 Jahren überholen wird. Glücklicherweise lehrt uns die Geschichte, dass es, wenn überhaupt, sehr viel länger dauern wird.

Wahrhaftig gab es einige beachtliche technologische Durchbrüche in den letzten Jahren wie:

  • Sprach-Übersetzungsmaschinen (Deepl, Skype, Google Translate, usw.), die wirklich etwas taugen. Auch «speech to text» und umgekehrt funktioniert zwischenzeitlich
    sehr gut auf der Grundlage von AI.
  • Persönliche Assistenten auf der Grundlage des Internets (Google Alexa, Amazon Echo, usw.), die sich besonders in Amerika sehr schnell durchgesetzt haben.
  • Empfehlungssysteme auf Internetplattformen, die immer stärker zur Normalität werden.
  • Automatisierte Verhaltensanalysen wie bspw. Sentiment Analysis für das Marketing.
  • AI Security: AI hilft uns in vielen Fällen gegen die Kriminalität vorzugehen. Fraud Detection, Cyber Security und besseres Verständnis der Kriminalität mit Data
    Science.
  • Und sehr viele Applikationen auf der Grundlage von Bild und Video Analysen, darauf basiert schliesslich auch das autonome Fahren. Darunter fällt zum Beispiel auch
    unser Projekt der Fehlstellenerkennung (Risse, Nassstellen, usw.) in Tunnels.
  • Man schätzt den Predictive Maintenance (Vorausschauende Wartung) Markt, aufbauend auf Machine Learning, bis in das Jahre 2022 bei 11 Milliarden $ (Market Research
    Future Roland Berger, 2018), also auch eine sehr starke Entwicklung in den nächsten Jahren.

Die Intelligenz von AI

Abb.2 zeigt, wo sich die Intelligenz von AI sich im Vergleich zur Tierwelt befindet.
Ein Vergleich kann am ehesten anhand von Deep Learning angestellt werden, da hier das Konzept der neuronalen Netze ja eine Ähnlichkeit zu Gehirnen aufweist.

Das Gehirn eines Menschen hat um die 100 Milliarden Neuronen (Nervenzellen) und 100 Billionen Synapsen. Der Vergleich der AI Neuronen zu organischen Neuronen ist etwas vage, aber wir liegen in der Tendenz irgendwo in der Nähe einer Honigbiene, einige behaupten in der Nähe eines Frosches. Damit liegt mindestens ein Faktor von 10’000 noch zwischen AI und der Intelligenz eines Menschen.

Abb.2: Die Intelligenz von Deep Learning im Vergleich zur Tierwelt

Die Biene kann spezifische Verhaltensmuster sehr gut, zum Beispiel den Weg finden, vielleicht sogar besser als Menschen. Genauso verhält es sich bei AI. AI kann einen spezifischen Tumor auf einem Röntgenbild besser erkennen als ein Arzt (auch wenn nicht alle Ärzte das bejahen). Aber das Modell kann nicht gleichzeitig das Bild einer anderen Krankheit im Gehirn erkennen, wenn es nicht speziell darauf trainiert wurde

Und leider hat man herausgefunden, dass die Genauigkeit der Mustererkennung abnimmt, wenn mehrere Probleme gleichzeitig gelöst werden sollen. Zumindest aktuell noch hat die Intelligenz von Deep Learning eine Grenze, die möglicherweise nicht durchbrochen werden kann. Ein Deep Learning Modell wird nie die Intelligenz eines Menschen aufweisen, um in die Richtung zu kommen, werden ganz andere Konzepte benötigt.

Die fehlende Intelligenz von AI

  • AI hat nicht das was man als «Common sense» bezeichnet. AI kann nur Schlussfolgerungen auf einem spezifischen Gebiet ziehen, auf welchem es trainiert wurde. Über diese Grenzen
    hinaus funktioniert AI nicht.
  • Deep Learning funktioniert nur über Wahrscheinlichkeiten. Es gibt keine direkte Verdrahtung von Input und Output, deshalb wird Deep Learning nie 100% genaue Resultate
    erbringen.
  • Deep Learning ist nur so gut, wie das Netzwerk trainiert wurde. Das kann auch zu grossen Fehlern oder sogenannten «Bias» führen. Zum Beispiel, dass ein Afro- Amerikaner es viel
    schwerer hat, eine Hypothek zu erhalten, weil das Modell einen «racial -» oder «gender bias» aufweist.
  • Deep Learning funktioniert nur mit vielen Trainingsdaten. Wenn das Problemfeld sich zeitlich laufend ändert, läuft das Deep Learning nicht mehr optimal.
  • Die menschliche Intelligenz funktioniert über den Informationsaustausch und Domänen-übergreifende Anwendung des Wissens. Deep Learning kann das nicht. Deep Learning kann damit auch
    nicht als kreativ bezeichnet werden (auch wenn eine spezielle Art von Netzwerken – die GANs – mit den richtigen Trainingsdaten spezifische “kreative” Aufgaben lösen kann).

Wo macht AI (noch) wenig Sinn

Hier nur einige Beispiele, die vor einer übereilten Euphorie warnen sollen:

AI für das HR

Vor wenigen Jahren kamen AI Applikationen auf den Markt, die den Bewerbungsprozess von neuen Mitarbeitern unterstützen. Aufgrund der Gesichtsmimik der Bewerber beim Bewerbungsgespräch wurde auf die Eignung geschlossen. Was mich selber belustigt hat, wurde interessanterweise von etlichen Firmen (zumindest anfänglich) positiv aufgenommen.
Die Eignung für eine Stelle ist meistens äusserst individuell. Die Person muss neben den Fähigkeiten für die ausgeschriebene Rolle in ein ganz spezifisches Team passen. Es ist kaum möglich, dass ein Deep Learning Algorithmus für einen derart individuellen Entscheidungsprozess einer Anstellung eine entscheidende Hilfe leisten kann.

Deep Learning für die Börse

AI soll den Aktienkurs vorhersagen. Das ist weder für ganze Aktienmärkte und erst recht nicht für einzelne Firma auch zukünftig nicht möglich. Der Aktienmarkt reagiert auf wirtschaftliche und politische Einflüsse wie Instabilitäten, die nicht vorhersagbar sind und ist dazu noch stark emotional aufgeladen. In der Vergangenheit hat AI Börsen sogar destabilisiert. Tendenz aber ist, dass mit AI die Aktienmärkte weniger emotional werden, also damit die Ausschläge weniger dramatisch sein werden.

AI als Arzt

Expertensysteme im HealthCare werden den Arzt unterstützen und mit der Zeit immer besser werden, je mehr Datengrundlage diese Systeme aufweisen (historische Daten und online Daten der Patienten). Expertensysteme werden aus der Arztpraxis in wenigen Jahren nicht mehr wegzudenken sein. Aber es wird noch viele Jahre dauern, bis die Funktion eines Arztes überdacht werden muss.

Autonomes Fahren

Das autonome Fahren besonders in den Städten wird sich leider herauszögern. Auch wenn viele Prototypen seit Jahren im Einsatz sind. Leider werden die Prognosen einer Einführung laufend nach hinten korrigiert.

Abb. 3: Bestandsdurchdringung bis 2050: Gesamtbestand; ADAC Studien von Prognos, Aug 2018

Man geht jetzt von einer Einführung des City Piloten ab 2030 aus (ADAC Studie, 2018), mit einer Durchdringung von 10% bis 20% im Jahr 2050 in den Städten. Das ist wenig und ich hoffe, dass dies in Tat und Wahrheit etwas schneller gehen wird. Die Hoffnung stirbst zuletzt.

Fazit
Elan Musk ist ein Visionär. Aber er wird es früher auf den Mars schaffen, als das AI intelligenter als der Mensch wird. Viele Hoffnungen, aber auch Ängste sind (glücklicherweise) masslos übertrieben.

LeanBI hält ein Referat über Smart Data im Umfeld von Predictive Maintenance am 13. Internationalen Forum für Mechatronik am 25. September 2019 in Cham (Bayern)


Seit 2005 findet das Internationale Forum Mechatronik (IFM) in Rotation zwischen Deutschland, Österreich, der Schweiz und Südtirol statt. Die LeanBI ist mit einem Vortrag dieses Jahr dabei:

Das IFM ist eine branchenübergreifende Informations- und Technologie-Plattform, die über aktuelle Entwicklungen und Trends in der Mechatronik informiert und so Impulse zur strategischen Weiterentwicklung von Unternehmen gibt. Das 13. internationale Forum Mechatronik kommt 2019 nach Cham in Ostbayern. Der etablierte Jahreskongress ist der europäische Marktplatz zur technologischen Präsentation und Fachdiskussion für Wirtschaft und Wissenschaft, für neue Kontakte und Kooperationen und zur Vernetzung etablierter Unternehmen mit der mechatronischen Startup-Szene.

Hier finden Sie die das Programm und den Link zur Anmeldung: https://www.mechatronikforum.net/

Die LeanBI ist dabei mit dem Vortrag «Von den Rohdaten zu Smart Data». Anhand von konkreten Fallbeispielen wird die Umsetzung von Predictive Maintenance (Vorausschauende Wartung) an Maschinen und intralogistischen Systemen besprochen. Um Predictive Maintenance an Maschinen gekonnt ausführen zu können, muss zuerst die richtige Sensorik bzw. Datengrundlage gewählt werden. Die Sensordaten durchlaufen einen sogenannten Feature Extraction Prozess, bei der die Daten für die Machine Learning (ML) Modelle aufbereitet werden. Die Wahl der geeigneten ML Modelle ist ein wichtiger Erfolgsfaktor für Predictive Maintenance. Der Vortrag zeigt ein Framework auf, durch welches die Komplexität von Predictive Maintenance reduziert wird, sodass auch kleine und mittlere Industrien Predictive Maintenance anwenden können.

Wir freuen uns, bei dieser internationalen Konferenz unseren Beitrag beisteuern zu dürfen.

Was Instandhaltungsleiter beschäftigt



Am 26. Juni 2019 durfte die LeanBI in Zusammenarbeit mit der Firma OST den fmpro Round Table zum Thema «Digitales Retrofit von Anlagen» gestalten. Neben unserem Vortrag mit vielen Use Cases hatte die gemeinsame Diskussion beim Round Table einen hohen Stellenwert. Wir fassen den Outcome zusammen und berichten, was die Instandhaltungsleiter grosser Firmen beschäftigt.

fmpro ist der grösste Verband der Schweiz im Bereich Facility Management und Maintenance. Sie hat sich zum Ziel gesetzt, die Bildung, den Know-how-Transfer und das Netzwerken in der Branche zu unterstützen. In diesem Zusammenhang organisiert die fmpro Round Tables rund um das Thema Instandhaltung. Eingeladen zum Thema «Digitales Retrofit von Anlagen» waren die Instandhaltungsleiter ausgelesener Firmen wie DSM, BASF, Comet, ABB, Migros, Bilfinger, Nestle, Axpo, Post CH und Altran.

Digitales Retrofit ist in der Industrie ein grosses Thema, in diesem Zusammenhang besonders das Thema Predictive Maintenance. Man schätzt das Marktvolumen in der Schweiz bis in 5 Jahren bei 247 mio $, was einer Verfünffachung gegenüber dem diesjährigen Stand entspricht (siehe Grafik). Grund genug für Instandhaltungsleiter, sich mit diesem Thema immer wieder von neuem auseinander zu setzen.

Yvan Jacquat, CEO OST und Marc Tesch, CEO LeanBI haben im Leitvortrag aufgezeigt, wie man Predictive Maintenance in der Industrie angeht, und haben dies anhand von 3 Use Cases untermauert. Kurz zusammenfassend sind folgende 3 Punkte für ein erfolgreiches Retrofit von Logistik- und Produktionsanlagen ausschlaggebend:

  • Einen breiten IoT Ansatz wählen, aber klein anfangen
  • Soweit vorhanden «Out of the box verwenden», in Kombination mit AI und Sensortechnik
  • Zeitlich gestaffelte Realisierung: Nutzen-/Kosten-/Machbarkeits-orientiert – wenig Risiken und bessere Performancen

Interessant und zentral für diesen Blog ist die Sicht der Instandhaltungsleiter, denn diese namhaften und erfahrenen Personen scheinen gegenüber Predictive Maintenance eher verhalten eingestellt. Warum?

Einige Instandhaltungsleiter zweifeln, dass sich Ausfälle an den Maschinenkomponenten genügend gut voraussagen lassen, sodass der Zeitpunkt des Ausfalls bestimmbar ist. Es wurden bei vielen Firmen verschiedene negative Erfahrungen gemacht. Zum Beispiel wurden zwei identische Anlagen bis zum Ausfall betrieben und dabei festgestellt, dass der Ausfall nach sehr unterschiedlichen Zeiten stattfand. Damit wird postuliert, dass nicht messbare Umwelteinflüsse einen dominanten Einfluss auf die Komponenten haben. Ein anderer Fall: In der Prozesstechnik wurden an Komponenten wie Pumpen und Wärmetauscher viele Parameter aufgenommen. Auf der Basis von physikalischen Grundlagen konnten so Fouling-Thematiken (Also Ablagerungen an den Wärmetauscherwänden) besser begriffen werden. Das war ein Erfolg. Auch bei den Pumpen konnten durch breites Messen konstruktive Verbesserungen an den Pumpen eingeleitet werden, um damit Ausfälle zu verringern. Aber Predictive Maintenance wurde in beiden Fällen nicht angegangen. Auch ein wichtiger Punkt der Maintenance Spezialisten: Die Erfahrung der Spezialisten lässt sich nicht so einfach in AI und Machine Learning abbilden. Zu komplex ist die Welt der Produktion, zu einfach die heutigen Predictive Maintenance Lösungen.

So zusammenfassend der Input der Instandhaltungsleiter und damit das Fazit: Die Marktforschung und unsere Erfahrung stehen eher im Kontrapunkt zu den Erfahrungen vieler Spezialisten. Wer hat nun recht? – BEIDE

Die Ableitbarkeit von AI Modellen über unterschiedliche Betriebszustände und Produktionsprodukte bei gleichen und nahezu gleichen Anlagen lässt sich auch heute häufig nicht einfach automatisieren.

Bestehen aber zu den gefahrenen Betriebszuständen für den ordentlichen Betrieb relevante Daten, können Anomalien frühzeitig erkannt werden. Kennen wir den zeitlichen Verlauf bis zum Ausfall, kann AI prognostizieren, wann voraussichtlich ein Ausfall eintritt. Das Modell lässt sich so einstellen, dass ein Ausfall unbedingt verhindert wird. Wir wie auch anderen Firmen haben dies mehrfach bewiesen. Aber ein Restrisiko bleibt. Die Kunst besteht, das Restrisiko aufzuzeigen und damit Transparenz und damit Vertrauen in die AI Modelle zu schaffen.

Aber wie gut ist ein solches AI-Modell, um die Ausfälle zu prognostizieren? Natürlich nur so gut, wie die Daten. Wird also eine Umgebungsfeuchte oder Umgebungstemperatur nicht aufgenommen, die den Ausfall mitbestimmen, kann das Modell nicht richtig prognostizieren. Es liegt also an uns, in gemeinsamer Arbeit mit den Ingenieuren und Instandhaltungs- Spezialisten, die richtigen Parameter zu bestimmen. Hinzu kommt als Schwierigkeit die Tatsache, dass Umgebungseinflüsse sich stetig ändern. Zum Beispiel sind Eingangsmaterialien nie gleich. Das Modell muss damit auf die jeweiligen Betriebszustände «geeicht» werden. Reden wir hier von Schwankungen in kürzeren Zyklen, dann sind wir überzeugt, dass eine Realtime Messung in den Anlagen eine Verbesserung gegenüber einem statischen Wartungsplan erbringt. Drifts in längeren Zeiteinheiten bring man durch periodisches Nachtraining der Modelle in den Griff.

Predictive Maintenance ist nie ein Big Bang. Nur für bestimmte Use Cases funktioniert die Umsetzung einer «Out of the box»- Lösung ad hoc. Häufig ist die Einführung von Predictive Maintenance ein Projekt, aber mit erfahrenen Leuten und LeanPredict kein sehr grosses. Und nach dem Projekt wird mit mehr Daten im Betrieb die Prognose stetig besser.

Lohnt sich dann Predictive Maintenance überhaupt? Rechnet sich der Business Case? Oder ist es nicht einfacher, auf die erfahrenen Maintenance Spezialisten zurückzugreifen. Unsere Antwort geht in zwei Richtungen:

  1. Nutzen: Der Predictive Maintenance Case rechnet sich nie über die Reduktion der Wartungskosten allein. Es ist immer ein Bündel von Verbesserungen, die schliesslich den Entscheid geben. Zuoberst steht die Verfügbarkeit der Anlagen, die Lieferbereitschaft und die Qualität der produzierten Produkte. Aber auch Prozess- und Energieoptimierung sind ein wichtiges Thema bei den digitalen Retrofit-Projekten. Die Maintenance Abteilungen in den Firmen sind einem grossen Kostendruck ausgesetzt. Predictive Maintenance kann nicht aus diesen Abteilungen allein bestritten werden. Predictive Maintenance ist damit immer auch eine Management Aufgabe und Budgets müssen übergeordnet zur Verfügung stehen.
  2. Erfahrung automatisieren: Die Erfahrung der Wartungsspezialisten lässt sich nicht so einfach in den AI Modellen kapseln. Aber die Abbildung von Regeln, ausgehend von den Resultaten der Modelle ist in einer IoT-Umgebung nicht allzu komplex. Gehen wir einen Schritt weiter, dann kapseln wir diese Erfahrung auch wieder mit AI über verschiedene Feedbackschlaufen. Das ist ein Entwicklungsthema der LeanBI.

Das grösste Problem der Wartungsabteilungen in der Schweiz ist der «Fachkräftemangel». Das hat eine Umfrage beim Round Table klar gezeigt. Ein Weg dieses Problem anzugehen ist, die Erfahrung der Spezialisten in die Systeme zu überführen, eben zu automatisieren. Und dabei können wir helfen, trotz gesunder Skepsis in der Branche, einen grossen Mehrwert im Bereich Instandhaltung zu schaffen.

LeanBI geht an die ICLR 2019 (6-9 Mai, New Orleans)


Machine Learning wird oft als Black Box verwendet, aber dieser Ansatz begrenzt die Bandbreite der Probleme, die der Datenwissenschaftler lösen kann. Nach unserer Erfahrung braucht mindestens die Hälfte der Projekte mehr als das. Die beste Lösung für das Kundenproblem ist oft nicht lösbar mit Modellen, die von jeder maschinellen Lernbibliothek sofort einsatzbereit sind. In diesen Fällen müssen wir entweder bekannte maschinelle Lerntechniken anpassen oder ganz individuelle Lösungen auf der Grundlage der Mathematik des maschinellen Lernens entwickeln.

LeanBI freut sich, in diesem Jahr an der weltweit wichtigsten Deep Learning Konferenz, der International Conference on Representation Learning (ICLR), teilzunehmen.

Die ICLR ist eine relativ neue Konferenz, ebenso wie der Bereich des Deep Learning. Es läuft erst seit 7 Jahren, hat sich aber einen Platz unter den wichtigsten Konferenzen zum maschinellen Lernen der Welt erobert. In diesem Jahr werden sich vom 6. bis 9. Mai mehr als 4000 Teilnehmer in New Orleans treffen.

Grossartig ist, dass die ICLR akademische und industrielle Forschung kombiniert. Dies ist etwas sehr Notwendiges in der ML-Community, da wir oft sehen, wie die besten Professoren die Akademie verlassen, um in die Forschungslabore von Google, Facebook und anderen Unternehmen mit maschineller Lernfähigkeit einzusteigen.

Während die Gelegenheit für uns darin besteht, einige der akademischen Arbeiten aus der Doktorarbeit von unserem Kollegen Vassilis Kalofolias (Large Scale Graph Learning) zu präsentieren, werden wir die Gelegenheit haben, die neuesten Wege zur Lösung von Problemen des maschinellen Lernens von Spitzenuniversitäten und ML-basierten Unternehmen der Welt zu sehen und zu diskutieren.

In einem späteren Beitrag werden wir einige der Highlights der Konferenz zusammenfassen. Bis dahin finden Sie weitere Informationen und das Programm der ICLR 2019 unter: https://iclr.cc/

LeanBI an der SDS 2019: Swiss Conference on Data Science Deep-Learning-Lösungen für eine kostengünstige Tunnelwartung

Datum: 14. Juni 2019

Zeit: 09:00 – 18:30 Uhr, mit Apéro Riche

Ort: Kursaal Bern



SDS2019

SDS2019 bringt Meinungsbildner, Praktiker, Entscheidungsträger und Forscher mit Interesse an Data Science zusammen. Ziel ist es, den Ideenaustausch für innovative Produkte und Dienstleistungen insbesondere für den Schweizer Markt zu fördern und die Gemeinschaft der Datenwissenschaftler zu erhalten.

SDS2019 wird Vorträge in 2 verschiedenen Bereichen von akademischen und wirtschaftlichen Beiträgen anbieten. Die akzeptierten wissenschaftlichen Arbeiten werden in der digitalen Bibliothek IEEE Xplore veröffentlicht. Für Unternehmen sind Vorträge mit wirtschaftlicher Bedeutung und datengesteuerte Innovationskonzepte eingeladen und werden vorgestellt.

LeanBI an der SDS2019

LeanBI darf in Zusammenarbeit mit Amberg einen Vortrag zum Thema «Deep-Learning-Lösungen für eine kostengünstige Tunnelwartung». Hierzu haben wir im Jahr 2018 ein erfolgreiches Projekt umgesetzt.

Jährlich werden 4700 km neue Tunnel gebaut, was einem jährlichen Gesamtwachstum von 7% entspricht. Bis heute basiert die Tunnelbewertung hauptsächlich auf einem langsamen und subjektiven menschlichen Inspektionsprozess. Da die Gesamtlänge der zu prüfenden Tunnel ständig zunimmt, wird es immer wichtiger, deren Betriebssicherheit mit sicheren und kostengünstigen Mitteln zu gewährleisten.

Amberg Technologies hat in Zusammenarbeit mit LeanBI eine neue Plattform für Tunnelinspektionen auf Basis von Artificial Intelligence entwickelt. Die neue Plattform erreicht einen höheren Automatisierungsgrad durch die Anwendung von Deep Learning Modellen zur Bildsegmentierung.

Die automatische Fehlererkennung für Tunnel hat mehrere Vorteile. Erstens bietet es einen objektiveren und quantifizierbareren Ansatz für die Aufgabe der Tunnelinspektion. Dies ist wichtig, da die heutige manuelle Inspektion von Natur aus subjektiv ist und eine Abweichung der Ergebnisse zwischen verschiedenen Inspektoren oder sogar desselben Inspektors zu verschiedenen Zeiten besteht. Der Effekt ist stärker ausgeprägt bei schwierigen Anomalien, wie beispielsweise Risse beliebiger Größe und Form. Während die manuelle visuelle Inspektion von Kilometern gescannter Tunnel Dutzende von Stunden Arbeitszeit in Anspruch nehmen kann, dauert es nur wenige Minuten, bis ein trainiertes Deep-Learning-Modell die gleiche Anzahl von Bildern annotiert. Ein solches Modell kann entweder auf einem lokalen Computer oder in der Cloud ausgeführt werden, was die Zusammenarbeit erleichtert. Dank der Objektivität und Schnelligkeit der automatischen Tunnelinspektion schließlich ermöglicht letztere es den Inspektoren, Änderungen des Zustands eines Tunnels über die Zeit leicht zu verfolgen.

Der Vortrag erläutert die Prinzipien der neuen Plattform und konzentriert sich dann auf die Auswirkungen und Ergebnisse der Deep-Learning-Modellierung, die für die automatische Tunnelauswertung angewendet wird.

Wir freuen uns auf diesen Event.

Hier der Link zur Agenda des gesamten SDS 2019: https://sds2019.ch/conference-program?talk-list=1

Industrieforum 2025 – 5 Bausteine zum Industrie 4.0-Erfolg

Datum: 9. Mai 2019

Zeit: 08:15 – 17:30 Uhr

Ort: CAMPUSSAAL Kultur + Kongresse, Bahnhofstrasse 6, 5210 Brugg-Windisch


Um «Industrie 4.0» erfolgreich aufzubauen sind verschiedenste Ansätze möglich, welche auf die individuelle Ausgangslage und Ziele der jeweiligen Unternehmen ausgerichtet sein müssen.

Gemeinsam ist aber allen, dass sie ein optimales Fundament brauchen, um über einzelne Leuchtturmprojekte hinauszukommen. Diese Basis besteht aus mindestens fünf Bausteinen: Umsetzungsstrategien, Daten, Security, Skills/Arbeitswelt und Kundenorientierung. Am 6. «Industrieforum 2025» (vormals Jahrestagung) geben Ihnen Experten Einblicke in die Themen und stellen Usecases vor, die Ihnen auf dem Weg zu Industrie 4.0 Anleitung, Inspiration und Vorbild sein sollen.

Zu diesem Industrieforum, an welchem über 350 Gäste erwartet werden, dürfen wir aktiv beitragen. Denn wir von der LeanBI sind für den Baustein „Daten“ zuständig. Wir stellen unser erfolgreiches Innosuisse Projekt zum Thema Predictive Maintenance bei der Schweizerischen Post AG vor.

Mehr als 700 000 Pakete pro Tag werden in den Paketzentren der Schweizerischen Post verarbeitet. Jeder technische Defekt an den 7000 Sortierwagen und an den Portalkränen verursacht Kosten und kann dafür sorgen, dass Pakete zu spät im Briefkasten landen. Mit spezifischer Sensortechnik und Verarbeitung der Daten mit Machine Learning werden deshalb verschiedenen Defekte im Paketzentrum frühzeitig erkannt. Wir zeigen konkret die Umsetzung des Projekts und leiten daraus ein allgemeines Framework für eine erfolgreiche Umsetzung von Predictive Maintenance im industriellen Umfeld ab.

Wir freuen uns darauf, die Resultate unserer erfolgreichen Plattform LeanPredict an dieser Konferenz mit Ihnen teilen zu dürfen.

Hier der Link zur Agenda: http://www.industrie2025.ch/if19.html

Vorgehensweise bei Predictive Maintenance Projekten anhand des Fallbeispiels Post Verteilzentrum


LeanBI durfte an der Smart Maintenance Konferenz vom 13. Februar 2019 anlässlich der Swiss Maintenance Fair einen Vortrag über Predictive Maintenance halten. Diese Konferenz wurde in Zusammenarbeit mit der Swiss Alliance for Data-intensive Services, bei welchem wir auch Mitglied sind, durchgeführt.

Bei unserem Vortrag ging es spezifisch um die Vorgehensweise bei Predictive Maintenance Projekten. Dies haben wir an unserem Case der Schweizerischen Post Verteilzentrum erläutert.

Wenn wir Predictive Maintenance Projekte angehen, sollte man das Vorgehensmodell auf 3 Ebenen betrachten. Auf der strategischen Ebene geht es darum, den Nutzen von Predictive Maintenance überhaupt zu erkennen und zu quantifizieren. Dafür ist es gut, wenn man sich an bestehenden externen Use Cases orientiert und diese gegenüber den eigenen Kernkompetenzen spiegelt. Diese Technik nennt man „Inside Out <-> Outside In“. Das ist einfacher gesagt als getan, aber wir unterstützen dabei, konkrete Ergebnisse zu erhalten. Nach dieser strategischen Betrachtung sollten die Use Cases selektiert sein, die für das Unternehmen in Zukunft den grössten Nutzen bringen.

Abb: Vorgehensweise bei Predictive Maintenance Projekten

Auf der zweiten, nämlich der Projektebene legt man dann die Use Cases auf eine Roadmap. Wir selber sind der Meinung, dass eine Selektion nach den Kriterien „Dringlichkeit“, „Marchbarkeit“ (besonders bezüglich der Datenlage) und „Nutzen“ schon bereits ausreicht, um eine gute Roadmap zu gestalten.

Alle reden von der Notwendigkeit agiler Projektumsetzung auf dem Gebiet von Artificial Intelligence und Data Science. Das ist nicht falsch, aber wir sind der Meinung, dass man ein solches Projekt sehr wohl klassisch strukturieren sollte und das agile Vorgehen dann innerhalb der Projektphasen abläuft. Das Konzept zum Start ist und bleibt ein wichtiger Schritt, jedoch diese Konzeptphase kann sehr kurz gehalten werden. Da reichen schon 1 bis 3 Tage Aufwand bis zur Fertigstellung.

Ausgehend davon macht ein PoC (Proof of Concept) Sinn. Dieser PoC kann auf unseren Plattformen mit echten, aber Offline- Daten auch schnell und effizient erbracht werden. Das Ergebnis des PoC ist ein funktionsfähiges laufendes Predictive Maintenance Modell mit jedoch noch nicht allzu hoher Genauigkeit. Mit dem PoC verifiziert man die Machbarkeit und Übertragbarkeit. Gleichzeitig hat unser Kunde gegenüber dem Management einen Showcase, der die Nutzenthematik konkretisiert.

Danach erfolgen in der Optimierungsphase das Verbessern des „Feature Extraction“ (Auswahl der Parameterfunktionen) und Modellierung auf Basis von Machine Learning Algorithmen.

Und nun zur letzten Ebene, zur Datenebene. Auf der Datenebene sind Data Scientist gefragt. Es gibt noch kaum „Out of the Box“- Lösungen, ausser für ganz spezifische Komponenten wie bspw. Motoren und Lager. Also heisst es, die Daten zuerst optimal aufzubereiten und dann dem Machine Learning Modell zuzuführen. Unser Vorteil ist, dass wir für verschiedene Basis- Use Cases vorgefertigte Modelle zur Verfügung haben. Das sind vortrainierte Modelle, die auch bei wenigen Fehler-Daten bereits hohe Genauigkeiten erbringen. Auch hat LeanBI auf verschiedenen Sensortechniken in den letzten Jahren ein grosses Know How aufbauen können. Das hilft uns nun, die oben genannten Projektphasen effizient zu durchschreiten.

Soweit das Thema „Vorgehensweise bei Predictive Maintenance Projekten“.

Wir werden am Industrieforum 2025 am 9. Mai im CAMPUSSAAL Brugg-Windisch unseren Post Case weiter mit Inhalt füllen. Hier werden wir vertieft auf die Resultate des Post Cases eingehen und wie wir daraus ein Standardprodukt LeanPredict entwickelt haben. Wir freuen uns bereits jetzt diesen Vortrag halten zu dürfen.

LeanBI an der F&E Konferenz Industrie 2025 vom 24.01.2019 an der HSR Rapperswil

Abb 1: Profillinie gemessen mit dem Sick EasyRanger

LeanBI an der F&E Konferenz Industrie 2025, auch dieses Jahr lauschten über 200 Teilnehmer den neuen Forschungs- und Entwicklungsvorhaben, wiederum vorgetragen von Schweizer Hochschulen und Forschungsinstituten. Und auch die LeanBI durfte mit unserem Kooperationspartner HSR, Prof. Christian Bermes präsentieren. Unser Entwicklungsvorhaben bei der Post ist erfolgreich und unser Product LeanPredict steht vor der Tür. Es beinhaltet verschiedenen Messtechniken wie Laser, Kamera, Akustik, Vibration, Temperatur, etc. Die Sensoren werden durch unsere Partner hergestellt und wir liefern die Machine Learning Modelle für das Predictive Maintenance. So werden wir in naher Zukunft mit LeanPredict das erste modulare Predictive Maintenance Framework für die Intralogistik weltweit anbieten können. Prof. Christian Bermes zeigte an der Konferenz, wie wir mit 3D-Lasertriangulation von Sick Verbiegungen und Gelenkkopfverschiebungen an den über 2000 Kippschalensortern in der Post Härkingen vorhersagen können. Die richtigen Lasereinstellungen und Extraktionen aus den Bilddaten spielen dabei eine zentrale Rolle. Das sogenannte Feature Extraktion ist Kernelement einer guten Predictive Maintenance Lösung und hier konnten wir mit der HSR gutes Know How aufbauen. Aber ohne unsere Partner wäre das alles nicht möglich gewesen:

Abb 2: Ein Prinzipschema von LeanPredict und Zusammenarbeit der Partner

Neben Robotik Themen waren Machine Learning Vorhaben die am meisten gezeigten Themen. Da Machine Learning auch LeanBI’s zentrales Thema ist, hier einige Informationen dazu:

Wir freuen uns, dass Machine Learning für die Online-Qualitätsüberwachung bei der Herstellung von Holzfaserdämmstoffplatten eingesetzt werden kann (vorgetragen von der EMPA, Mark Schubert). Die ersten Modellierungen zeigen, dass eine klare Korrelation zwischen Qualität und Produktionsparameter festgestellt wird. Genauso verhält es sich beim Spritzgiessen. Auch hier besteht gutes Potential, dass sich mit den Maschinenparametern aus der Spritzgussmaschine der Spritzgussprozess optimieren lässt (Curdin Wick HSR).

CSEM stellte vor, dass man mit Deep Learning Predictive Maintenance ausführen kann. Zwischenzeitlich gibt es auch performante Hardware auf der Edge (also Maschinen- und Produktionsnah), die GPU’s und damit Tensor Cores beinhalten. Ein Beispiel dafür ist NVIDIA.

Und die ETHZ/Inspire zeigt, dass sich bei Werkzeugmaschinen mit Machine Learning thermische Fehler im Bearbeitungsprozess online verhindern lassen.

Das HEIA-FR befasst sich mit der Verfahrenstechnik, nämlich wie man Chemische Reaktoren «smart» machen kann. Mit Machine Learning und der geeigneten IoT Umgebung lassen sich digital twins aufbauen und auf dieser Grundlage auch Predictive Maintenance ausführen. Dann kann in Zukunft auch Augmented Reality zur Wartung Anwendung finden. Alles Themen, an denen wir auch dran sind.

Also, es läuft viel in der Schweiz auf dem Gebiet Artificial Intelligence und Machine Learning.

Doch ganz nebenbei: Spannend fanden wir auch den Vortrag von Norman Urs Baiser: Er zeigte, wie man aus CAD Zeichnungen direkt softwaretechnisch Anweisungen an den Roboter zur Herstellung und Montage von Werkstücken ausführt…. Und in virtuellen Räumen (Virtual Reality) lassen sich Teamentscheide besser fällen als Face to Face (zumindest nicht schlechter), ein Vortrag von Ivan Moser FFHS…spannend.

Und wir freuen uns schon auf die nächste F&E Konferenz in einem Jahr.