Zentralbahn AG: LeanBI und PROSE prägen die digitale Zukunft

Entscheidungshilfesystem für die datengesteuerte Wartung von Fahrzeugen

Deep Learning for damage detection in tunnels

Eine kürzlich von McKinsey durchgeführte Umfrage unter den meisten europäischen Eisenbahnbetreibern besagt, dass fünfzig Prozent ihrer Experten innerhalb der nächsten zehn Jahre in den Ruhestand gehen werden.  Um jedoch handlungsfähig zu bleiben, müssen Führungskräfte nun überlegen, wie sie ihre zukünftige Organisation betreiben und ein proaktives Wissensmanagement in ihre Prozesse integrieren wollen.  In der Praxis können maschinelles Lernen und künstliche Intelligenz Big Data von Sensoren verwalten, und somit einen Gesundheitszustandsbild des rollenden Materials (Lokomotive, Wagen) liefern und Tag für Tag aus den erfahrenen Wartungsentscheidungen der Experten lernen.  Mit jeder Experten-basierten Entscheidung verbessern künstliche Intelligenz und maschinelles Lernen ihre Wissensbasis, können Vorschläge kreieren und bei der Fehlererkennung und Problemlösung helfen.

LeanBI und Prose, der Schweizer Spezialist für Mobility Engineering, entwickeln gemeinsam ein Entscheidungshilfesystem für die datengesteuerte Wartung von Fahrzeugen.  Eine erste Implementierung wird für den Schweizer Betreiber „zb Zentralbahn AG“ operationalisiert.  Gerhard Züger, COO der Zentralbahn, betont die finanziellen Auswirkungen dieser strategischen Digitalisierungsinitiative: „Die Digitalisierung wird uns helfen, die Wartungskosten zu senken und damit in naher Zukunft unsere Wettbewerbsfähigkeit zu steigern.  Es stärkt unser Fachwissen und verbessert die Verfügbarkeit unseres Vermögens.

Die Wirtschaftsförderungsagentur des Kantons Bern unterstützt diese digitale Initiative mit ihrem Finanzierungsprogramm Covid-19, das auf Richtlinien zur Förderung von Industriestandorten für Forschungs- und Entwicklungsprojekte basiert.

In der Vergangenheit haben Instandhaltungs-Organisationen, die für geplante Aktivitäten optimiert wurden und ihre Flotte (Lokomotiven und / oder Waggons) dazu veranlasst haben, rechtzeitig oder auf Distanz gewartet zu werden, die Welt unter einem deskriptiven Paradigma verstanden.  Im Rahmen eines MIT-Programms (Massachusetts Institute of Technology) „Digitale Geschäftsstrategie: Nutzung unserer digitalen Zukunft“ entwarf PROSE eine digitalisierte Asset-Management-Welt, in der das Asset (Lokomotive, Wagen) selbst die Instandhaltungs-Organisation informiert.

In einem präskriptiven Paradigma basieren Instandhaltungs-Aktivitäten auf einem vorhergesagten Systemstatus und geben eine Verfügbarkeitsprognose durch Analyse von Mustern und Trends.  Nur agile Organisationen und Prozesse können diesen Paradigmenwechsel bewältigen, unterstützt durch ein digitalisiertes Instandhaltungs-System, das Lösungsvorschläge und Entscheidungsunterstützung generiert.

Die finanzielle Seite des Geschäftsmodells erhöht sich durch Maximierung der Verfügbarkeit der Flotte aufgrund eines digitalisierten und fortlaufenden Gesundheitszustands des Vermögenswerts (Assets), der nicht nur eine Wartungsbasis auf der Grundlage des tatsächlichen Zustands desselben auslöst, sondern auch den zukünftigen Wartungsbedarf vorhersagt.  Wenn die Verfügbarkeit des einzelnen Assets höher ist, ist insgesamt weniger Investition erforderlich, um einen definierten Transportbedarf zu decken. Dadurch werden die Anlageninvestitionen für die Betreiber reduziert.

LeanBI und Prose sehen die Digitalisierung als strategischen Schritt für den Schweizer Betreibermarkt.  Aufgrund eines erheblichen Einkommensrückgangs in Zeiten von Covid-19 im Marktsegmentbetreiber wird die kosteneffiziente Wartung zum Schlüsselthema.

Deep Learning für die Schadenserkennung in Tunnels

Letztes Jahr hat die LeanBI ein Deep Learning Projekt, bei welchem die Effizienz der Tunnel-Wartung um 60% erhöht wird, für die Engineering Firma Amberg AG erfolgreich umgesetzt. Die von uns entwickelte AI-Komponente auf der Basis von Bildauswertungen wurde zwischenzeitlich in die Wartungssoftware von Amberg integriert.

Deep Learning für die Schadenserkennung in Tunnels

Glücklicherweise kann ein großer Teil Tunnelinspektion durch Anwendung von Deep Learning automatisiert werden. Das neuronale Netz erkennt Schäden wie Risse oder nasse Bereiche, aber auch andere interessante Objekte wie Rohre oder Elektrokästen im Tunnel. Unser Deep Learning Modell ist nicht nur in der Lage, Objekte zu erkennen, sondern auch die genauen Pixel zu identifizieren, die dem zu identifizierenden Objekt zugordnet sind. Dies ist für die Ingenieure von enormer Hilfe, da sie ursprünglich von Hand Polygone um beschädigte Bereiche zeichnen mussten, oder Linien, die Risse annotieren. Jetzt brauchen sie nur noch dem Vorschlag der Software zu folgen und die automatisch erkannten Schäden bestätigen.

 

Eine der Herausforderungen, mit denen die meisten Deep-Learning-Projekte konfrontiert sind, ist der Bedarf einer großen Anzahl von Objektbildern, die manuell „gelabelt“ werden müssen. Wir konnten mit nur wenigen hundert Metern annotierter Bilder eine sehr gute Genauigkeit erzielen, indem wir die richtigen Familie von Deep Learning angepasst und angewendet haben. Ein wichtiger Erfolgsfaktor war die Vergrösserung der Datenmenge durch „Augmentation“. Diese Data Science Methode benötigt viel Erfahrung, um damit die Genauigkeit der Modelle genügend zu erhöhen.

 

Mit unserer umgesetzten Lösung lässt sich der Schaden pixelgenau auf dem Bild quantifizieren. Das Modell identifiziert nicht nur das Objekt, sondern gibt auch eine Wahrscheinlichkeit an, wie “sicher” dieses Objekt in der identifizierten Klasse zugeordnet ist. Ist das Objekt mit einer 99%igen Sicherheit nass oder nur mit 60%? Mit dieser Information können die abschließenden Massnahmen der Wartung bewertet und priorisiert werden. Wir können so nicht nur den Inspektionsprozess, sondern besonders auch die Umsetzung der Massnahmen sehr viel effizienter gestalten.

 

Alzbeta Prokopova, Applikations- und Support Ingenieurin bei Amberg AG wurde vom Tunnelling Journal zu diesem Projekt interviewt. Finden Sie das ganze Interview in der Ausgabe Feb/Mar 2020 auf Seite hier auf Seite 11.

 

Die manuelle Auswertung von Bilder oder Laser Scans aus Tunnels ist äusserst zeitintensiv und wird nicht selten durch Ingenieure ausgeführt. Mit einer Automatisierung der Auswertung lässt sich die Produktivität bis zu 60% steigern. Die Software hilft, die Schäden zu erkennen und zu klassifizieren. Die Entscheidung zur Massnahme wird weiterhin vom Ingenieur getroffen.

 

LeanBI hat Amberg geholfen, einen Teil der Lösung auf der Cloud umzusetzen, was die Auswertekosten massiv reduziert hat. Das ist nicht nur eine technische Herausforderung, sondern auch eine wirtschaftliche, da grosse Institutionen beim Staat und grosse Engineering Firmen von der Sicherzeit und Zuverlässigkeit der Datenhaltung in der Cloud überzeugt sein müssen.

 

Amberg hat auch das Problem gelöst, dass in den Tunnels keine Internet Verbindung aufgebaut werden kann. Es wurde entsprechend eine offline Version der Software entwickelt, die sich mit dem Internet synchronisieren lässt, sobald ein Netz wieder besteht.

 

Mit der Automatisierung der Schadenserkennung mit Deep Learning kann nicht nur die Produktivität gesteigert werden, es wird auch die Qualität und die Konstanz der Erkennung erhöht. Auch lässt sich ein zeitlicher Aspekt integrieren, sodass die zeitlichen Veränderungen von Schäden besser auswertbar sind.

 

Mit der Wartungslösung von Amberg Lösung und der Unterstützung der LeanBI können damit Tunnelinspektionen nach Bedarf und nicht wie bisher in einem festen Rhythmus geschehen.

Modellierung von Ursachen und Wirkungen

Präskriptive Analytik ist nicht nur die höchste Stufe des analytischen Reifegradmodells, es ist auch ein Mittel, um die prädiktive Analytik robuster und genauer zu machen.

Im Bereich der Business Intelligence ist das “Analytics Reifegrad-Modell” von Gartner allgemein bekannt. Wir bilden dieses in etwas erweiterter Form in Diag. 1 ab.

MODELLIERUNG VON URSACHEN UND WIRKUNGEN

Diag.. 1: Das Reifegradmodell der Datenanalytik nach LeanBI auf der Grundlage vom Analytics Reifegradmodell nach Gartner.

Entlang der Stufen nimmt die Komplexität der Datenanalytik von unten nach oben zu. Der ursprüngliche Bereich von Business Intelligence deckt das Reporting und die Datenanalyse ab (bei der LeanBI mit OLAP, Online Analytical Processing, unter Verwendung von mehrdimensionalen Würfeln). Der obere Bereich Data Science lässt sich in prädiktiver und präskriptiver Analytik unterteilen. Die meisten heutigen Data Science Use Cases beschäftigen sich mit der prädiktiven Analytik und lassen die präskriptive Analytik aussen vor. So lassen sich mit den meisten heutigen Modellen wie Deep Learning Muster erkennen, um damit bspw. einen Schadensfall einer Maschinenkomponente vorhersagen, wie dies auch LeanBI mit LeanPredict ausführt. Mit Predictive Analytics lässt sich aber weniger gut auf die Ursachen der Schäden schliessen, umso schwieriger je breiter die Modelle sind. Deshalb wollen wir in diesem Blog mit dem Thema der präskriptiven Analytik beschäftigen, insbesondere der Modellierung von Ursachen (Causal Modelling).

Quantifizierung der Wirkung eines Faktors

Wollen wir ein Produkt optimieren, müssen wir dieses besser verstehen. Eine Produktoptimierung kann je nach Kontext mit verschiedenen Techniken angegangen werden. Im Marketing wollen wir zum Beispiel Fragen beantworten wie «Verändert die Position der Schaltfläche die Klickrate des Benutzers?». In diesem Zusammenhang haben wir die Freiheit, die Parameter (die Position der Schaltfläche) zu ändern und A/B-Tests zu verwenden, um die tatsächliche Auswirkung der Änderung zwischen Benutzern zu messen. So haben wir die Möglichkeit mit direkten Tests das Produkt zu optimieren und damit auch das Verhalten der Anwender besser zu verstehen.

Bei der vorausschauenden Wartung wollen wir Fragen beantworten wie «Führt die Änderung der Rotationsgeschwindigkeit, die ich im letzten Monat beobachtet habe, zu einem früheren Bruch der Maschine?» Wenn wir in diesem Fall davon ausgehen, dass die Drehzahländerung ohne unser Zutun erfolgte (wie eine Anomalie) und wir sie nicht direkt kontrollieren, können wir ihre Wirkung nur aufgrund von Beobachtungen messen. Wir könnten die Maschinen analysieren, die kaputt gegangen sind und solche die weiterhin laufen, um daraus zu schliessen, ob die unerwartete Änderung der Rotationsgeschwindigkeit zum Defekt führt. Nur haben wir dafür normalerweise keine Möglichkeit einer genügenden Datenerhebung. Bei dieser Art von Problemen, bei denen wir keine Kontrolle über die betrachteten Parameter haben, sondern die Ergebnisse nur a posteriori beobachten können, helfen uns die mathematischen Modelle der kausalen Inferenz weiter.

Kausale Inferenz und Kausalität versus Korrelation

Im Bereich vom Causal Modelling gibt es verschiedene Ansätze. Einer der wichtigsten Vertreter auf dem Gebiet des Causal Modelling ist Judea Pearl, der mit vielen Preisen geehrt wurde, unter anderem auch  2011 mit dem bekannten Turing Award. Er ist der Pionier der Bayesschen Netze, kausalen Modelle über die wir heute schreiben wollen.

Prädiktive Analytik hat seine Tücken, wenn wir beeinflussende Faktoren in den Modellen zu wenig berücksichtigen. Wir bringen dafür ein medizinisches Beispiel von Judea Pearl, weil dieses für uns alle sehr einleuchtend ist: Wenn wir den Einfluss von sportlichen Aktivitäten auf den Cholesteringspiegel auftragen, erhalten wir eine Abhängigkeit nach Diag. 2.

Abhängigkeit der Cholesterin-Spiegels von sportlichen Aktivitäten nach

Diag. 2: Abhängigkeit der Cholesterin-Spiegels von sportlichen Aktivitäten nach [1]

Wir interpretieren, dass mehr Sport zu höheren Cholesterinwerten führt, weil wir eine hohe Korrelation zwischen den beiden Variablen sehen. Eigentlich erwarten wir das nicht. Was stimmt also nicht? – Wir haben einen wichtigen Faktor übersehen, nämlich das Alter. Wenn wir diesen Parameter zusätzlich berücksichtigen, interpretieren wir plötzlich die gleiche Anzahl von Punkten ganz anders, nämlich korrekt, indem wir die Menschen nach Altersgruppen gruppieren, bevor wir jede Gruppe einzeln analysieren. Wie erwartet, gibt es nun für jede Gruppe eine negative Korrelation zwischen Cholesterin und Sportmenge. Warum war dies vorher nicht offensichtlich? Weil bei diesen Daten ältere Menschen nicht nur einen höheren Cholesterinspiegel haben, sondern diesen auch durch mehr Bewegung bekämpfen. Mit zunehmendem Alter nehmen beide Parameter zu, so dass sie hoch korreliert erscheinen, wenn wir das Alter nicht berücksichtigen. Wenn wir jedoch das Alter “kontrollieren”, verstehen wir, dass es die Ursache für mehr Bewegung und gleichzeitig für einen höheren Cholesterinspiegel ist. Der Cholesterinspiegel steigt mit dem Alter, und Sport senkt ihn für jede Altersgruppe (siehe Diag. 3).

Einbezug des Alterseinflusses auf den Cholesterinspiegel nach [1]

Diag. 3: Einbezug des Alterseinflusses auf den Cholesterinspiegel nach [1]

Falsche Interpretationen wie Diag. 2 können im Data Science passieren, indem falsche Parameter in die Modelle einfliessen oder weil die Wichtigkeit der Parameter falsch erkannt werden. Das kann dann mehr oder weniger schlimme Folgen haben. Mindestens gehen solche Fehlinterpretationen aus ungenügenden Modellen mit einem Vertrauensverlust in die Data Science Fähigkeiten einher.

Deshalb ist eine wichtige Erkenntnis, dass die Forschung der Ursachen und Zusammenhänge unterstützend wirkt,  aussagekräftiger und besser zu modellieren. Mit der Ursachenforschung werden die Korrelationen analytischer Modelle zu Kausalitäten.

Kausale Schlussfolgerung in der Industrie

Wie machen wir das nun konkret in unserem Fachgebiet der industriellen Datenanalytik? In der industriellen Datenanalytik erkennen wir einen herannahenden Schaden durch eine Abweichung der Messdaten von der Normalität. Wir nennen diese Messdaten „Effekte“. Nehmen wir zum Beispiel Temperatur als Messgrösse. Nimmt eine Temperatur am Ort einer Oberfläche zu, lässt sich vielleicht einen kommenden Schaden vorhersagen. Aber wie sicher können wir sein?

Schauen wir uns dazu den folgenden generischen Graphen an:

Ursachen – Wirkungs- Graph eines Maschinenschadens

Diag. 4: Ursachen – Wirkungs- Graph eines Maschinenschadens

Ein gemessener Effekt kann mehrere Gründe haben und jeder Grund hat wiederum ein oder mehrere Ursachen. Haben wir uns aber nicht genügend mit den Ursachen und Zusammenhängen der Effekte beschäftigt, besteht die Gefahr, dass wir Fehlalarme produzieren. Denn eine Temperaturzunahme kann mehrere Gründe haben, zum Beispiel eine Prozessänderung oder ein Schaden an einer Komponente. Wir müssen also die Kausalitäten herausfinden, dafür braucht es Spezialisten aus den entsprechenden Fachgebieten. Für die LeanBI bedeutet dies,  Workshops mit den Spezialisten vor Ort durchzuführen, sei es mit den Ingenieuren oder Betriebsleuten der Produktionen.

Wenn wir also die Ursachen-Wirkungsketten besser verstehen, können wir Wahrscheinlichkeiten definieren, unter welchen Bedingungen sich welche Effekte ergeben. Wie ist dabei die Vorgehensweise? Wir bilden kausale Netze, sogenannte Graphen. Ein wichtiger Vertreter kausaler Modelle sind die „Bayesian Network“. Diag. 5 zeigt ein einleuchtendes Beispiel aus der Medizin. Wir bilden für jede Wirkung Wahrscheinlichkeiten und schreiben diese in Tabellen.

Diag. 5: Beispiel eines einfachen „Bayesian Network“ Graphen: Zusammenhang von Lungenkrebs nach [2]

Nehmen wir zum Beispiel die Tabelle in der Mitte: Wenn wir P (Pollution) = H (High) und S (Smoker) = T (True) haben, ist die Wahrscheinlichkeit Krebs zu bekommen 0.05, als Nichtraucher S (Smoker) = F (False) bei gleicher Umgebung nur 0.02. Die Resultate verschiedener Effekte/Messmethoden wie X-Ray oder Dyspnoe (Atemschwerheit) lassen mit gewissen Wahrscheinlichkeiten auf Krebs schliessen. Es gilt also die Wahrscheinlichkeiten mit Studien, Experimenten oder mit Hilfe der Know How Träger zu ermitteln.

Es kann sehr komplex sein, richtige Ursachen- Wirkungsmechanismen zu evaluieren. Und die Interpretation ist schwierig. Ereignisse müssen zum Beispiel nicht gleichzeitig vorkommen und können sich auch über die Zeit verändern. Deshalb ist ein zentraler Punkt, die richtigen Fragen zum Netzwerk zu stellen (Judea Pearl  nenn dies „Do Operator“). Fragen sind dabei auch Konterfragen: Was ändert sich, wenn Ereignis B nicht eintritt? Genannt werden diese „Counterfactuals“. „Was ist, wenn es nicht Krebs ist, was das Röntgenbild zeigt?“ Mit solchen Fragen reichern wir das Netzwerk an und verbessern es.

Das spannende ist, dass sich die Graphen 1:1 in mathematische Modelle überführen lassen. Ein wichtiger Begriff dazu ist die konditionale Wahrscheinlichkeit,  „Conditional Probability“. Wir ermitteln die Wahrscheinlichkeit eines Ereignis A unter der Bedingung, dass Ereignis B zutrifft. Geschrieben wird dies P(A I B) oder PB (A). Im Bayesian Netzwerk werden so die Knotenpunkte beschrieben. Und damit lässt sich das mathematische Modell des ganzen Graphen aufbauen.

Die Bayesian Network Modelle bilden mathematisch eine durch uns erkannte Ursachen- Wirkungs-Realität ab. Es ist eine reduzierte Realität auf Einflüsse und Bereiche, die uns interessieren, und auch immer mit Unsicherheiten verbunden. Innerhalb solcher Netze können wir die Realität explorieren, indem wir die mathematischen Modelle anwenden und variieren. Wir erweitern damit modelltechnisch unseren Wissensraum. Das ist ein grosser Vorteil, denn wir können kaum mit Menschen experimentieren, um die Ursachen des Krebses besser zu verstehen. Im industriellen Umfeld genau gleich. Die Datenlage ist beschränkt und Testdaten sind teuer oder gar nicht erhältlich. Die Modelle helfen uns, die Maschinen und deren Schäden besser zu verstehen.

Haben nicht bereits «Expertensysteme» das Problem gelöst?

Auch bei der Umsetzung von klassischen Expertensystemen braucht es auch Experten aus den jeweiligen Bereichen. Was machen Expertensysteme anders als die gerade betrachtete kausale Modellierung? Es gibt einen grundlegenden Unterschied zwischen den beiden Ansätzen. In Expertensystemen ist das Know-how der Feldexperten in der “Inferenzmaschine” fest kodiert, in Form von logischen Regeln, nicht als Wahrscheinlichkeitsverteilungen. Die Experten kodierten klar verstandene Ausfallmechanismen, was natürlich sehr restriktiv und in der Praxis häufig nicht funktioniert hat, da die unterschiedlichen Umwelteinflüsse zu wenig berücksichtigt werden.

Bei der kausalen Inferenz hingegen geben die Experten eine Reihe von möglichen Mechanismen an, die zu einem Versagen führen könnten, um einen oder mehrere Kausalgraphen zu erstellen. Dann liegt es an den Daten, zu erklären/zu quantifizieren, welcher der Fälle plausibler sind, während die Experten in einer nächsten Iteration die darauf basierenden Modelle verfeinern können. Sind die Modelle einmal festgelegt, können wir mit ihnen nicht nur diagnostische Analysen durchführen, sondern auch prädiktive und präskriptive.

Ein Blick in die Zukunft

Die Suche nach der Ursache eines Ausfalls (“warum ist es passiert”) fällt per se meist in die Kategorie der diagnostischen Analytik. Sobald wir jedoch ein Kausalmodell haben, das zu unseren Daten passt, können wir es als eine weiche Form des digitalen Zwillings des Prozesses verwenden. Das Modell ist ein leistungsfähiges Werkzeug, das wir für die prädiktive, aber auch für die präskriptive Analyse verwenden können.

Das moderne maschinelle Lernen, dessen Flaggschiff das Deep Learning ist, hat viele Probleme in Angriff genommen, die vor 10 Jahren noch unvorstellbar waren. Der heutige Bedarf besteht jedoch mehr und mehr darin, interpretierbare oder erklärbare Modelle zu haben, und tiefes Lernen allein reicht nicht aus. Probabilistisches maschinelles Lernen und Modellierung können diese Lücke füllen, denn es zeichnet sich bereits ein neuer Trend ab, bei dem Deep Learning mit probabilistischer Modellierung kombiniert wird. Es ist kein Zufall, dass die heute meistgenutzte Bibliothek für Deep Learning, Tensorflow, erst kürzlich ein “Wahrscheinlichkeits”-Modul mit sehr wichtigen Inferenz-Tools hinzugefügt hat. Die Möglichkeiten sind endlos.

In Zukunft wird die LeanBI vermehrt mit diesen neuen Methoden arbeiten So kann das Resultat eines Bayesian Network der Input für Deep Learning sein. Ein Knotenpunkt eines Bayesian Network kann ein Deep Learning Modell sein. Oder die Prognose eine Deep Learning Modells fliesst in ein Bayesian Network ein, um die Ursache eines Problem besser zu erkennen.

Präskriptive Analytik ist nicht nur die höchste Stufe des analytischen Reifegradmodells, es ist auch ein Mittel, um die prädiktive Analytik robuster und genauer zu machen.

Literatur:

[1] Keynote: Judea Pearl – The New Science of Cause and Effect, PyData LA 2018: https://www.youtube.com/watch?v=ZaPV1OSEpHw&t=3299s

[2]: Particle swarm and bayesian networks applied to attribute selection for protein functional classification, 2007

Rückblick auf 11 LeanBI Auftritte an herausragenden Konferenzen im Jahr 2019

Im 2019 hat LeanBI viele erfolgreiche Projekte zum Thema Artificial Intelligence im industriellen Umfeld umgesetzt und hat sein Wissen an diversen Konferenzen und Events weitergegeben. Hier ein kleiner Konferenz-Rückblick auf das letzte Jahr 2019.

Im Zuge der F&E Konferenz zur Industrie 4.0 im Januar 2019 haben wir unser Produkt LeanPredict gelauncht. LeanPredict ist ein modulares End-to-End Predictive Maintenance (PdM) Framework, welches eine Sensorpalette aufweist, die im Predictive Maintenance Umfeld einzigartig ist. Auf der Grundlage von LeanPredict können wir eine grosse Anzahl von Predictive Maintenance Use Cases nun umsetzen. LeanPredict lässt sich besonders beim Retrofit verschiedener Produktionsanlagen einsetzen.

In unseren Predictive Maintenance Projekten der letzten Jahre haben wir konzeptionelle Erfahrungen zum erfolgreichen Vorgehen bis zur Produktivsetzung gewonnen. Diese Überlegungen haben wir erstmalig an der Smart Maintenance Konferenz im Februar 2019 in Zürich weitergeben.

Am Industrieforum 2025 im Mai 2019 durften wir mit der Post CH AG unseren erfolgreichen Predictive Maintenance Case im Verteilzentrum der Schweizerischen Post vorstellen. Die Präsentation war ein grosser Erfolg und wir hatten durchgehend sehr gutes Feedback zu unseren Ausführungen.

Und dann waren wir auch im Mai 2019 an der weltweit grössten Data Science Konferenz mit über 4000 Teilnehmern in New Orleans, USA: Der ICLR. Dort haben wir ein Poster zum Thema Large Scale Graph Learning vorgestellt.

An der Swiss Conference on Data Science SDS 2019 im Juni 2019 berichteten wir von unserer Erfolgsstory auf Deep Learning Image Recognition zur Automatisierung von Wartungsarbeiten in Tunnels. Mit diesem Projekt für Amberg Engineering AG haben wir unsere Erfahrung auf Image Recognition Projekten im Bereich von Wänden massiv ausgebaut. Ein Thema, dass sich auf viele weitere Einsatzmöglichkeiten der Image Recognition übertragen lässt.

Schlag auf Schlag ging es weiter: Das digitale Retrofit von Condition Monitoring auf bestehenden Anlagen ist in der Industrie angekommen. Dies haben wir mit vielen Beispielen verschiedener Anlagentypen am FMPRO Roundtable Instandhaltungsleiter auch im Juni 2019 demonstriert. Der digitale Retrofit ist teilweise ohne grosse Projektaufwände umsetzbar, häufig sind wir aber noch vom reinen Plug & Play entfernt, und es wird weiterhin Projektarbeit bis zur Produktivsetzung solcher Lösungen benötigt. Mit LeanPredict können wir aber solche Aufwände stark reduzieren.

Am 13. Internationalen Forum Mechatronicim September 2019 war der Fokus auf «Smart Data», also wie man aus Daten nicht nur Informationen generiert, sondern auch Entscheidungen unterstützt. Auch hier leistet LeanBI mit Ihren Lösungen auf BI und Data Science einen grossen Beitrag.

Dann ein zukunftsorientiertes Thema am Smart Service Summit in Zürich: Wie baut man zukünftige zentrale Smart Services Plattformen auf dem Gebiet von Predictive Maintenance? Es besteht Handlungsbedarf, um AI intelligenter zu machen, indem das Know How der Wartungsexperten in die Modelle automatisiert eingebracht wird. Das ist ein kontinuierlicher «Active Learning» Prozess. Automatisierte Entscheidungsgrundlagen werden dann akzeptiert, wenn Risiken zur Entscheidung transparent werden. So unser Thema “Challenges of Plug & Play Predictive Maintenance” am Smart Service Summit am 13.September 2019. Hier haben wir unsere konzeptionellen Überlegungen zu neuen, auf AI basieren Expertensystemen dem Forschungs- und Industriefachkreis näher gebracht.

LeanBI ist aktives Mitglied der «Expert Group Smart Data» der Industrie 2025. Die Gruppe möchte besonders KMUs spezifische erfolgreich umgesetzte Einsatzfälle zur Verfügung stellen, um die Eintrittsschwelle für KMUs zu verringern. Dafür haben wir die Webseite www.smartdata2025.ch aufgebaut, die laufend erweitert wird. Den Inhalt dazu hat unsere Gruppe mit einem Poster am Partnerevent Industrie 2025 im Oktober 2019 vorgestellt.

Dann das Finanz und Wirtschaft Forum im Oktober 2019 in Rüschlikon: Sehr stolz waren wir, an dieses Industrieforum für das höhere Management eingeladen worden zu sein: Die Ausführungen zu den Grenzen von AI und IoT in der smarten Fabrik zum Thema Digitale Transformation, Industrie 4.0 waren dafür gedacht, den Hype rund um AI zu relativieren. IoT und AI hat immer noch viele Grenzen, denen man sich bewusst sein muss. „Erfolg heisst, seine Grenzen kennen und sie lieben“.

Zu guter Letzt haben wir an der Swiss Alliance for Data-Intensive Services, Smart Maintenance Expert Group im November 2019 Insights zu unsere Data Science Lösungen an Spezialisten aus der Industrie weitergegeben. Auch das wurde ein sehr gelungener Event mit vielen positiven Feedbacks.

Für uns Summa Summarum ein Jahr erfolgreicher Projekte und Vernetzung nicht nur auf IoT, sondern besonders auch persönlich! Es war sehr schön, viele neue und spannende Leute kennenzulernen. An den Konferenzen haben wir selber viel dazugelernt. Und schon geht es weiter, dieses Mal an zum Thema Smart Maintenanance Konferenz 2020 am 12. Februar in der Messe Zürich.

Wir freuen uns auf ein spannendes 2020!