Digitale Geschäftsmodelle – speziell für KMU!

Unterhält man sich mit den Führungspersonen von Schweizer KMUs, ist fast immer von neuen digitalen Geschäftsmodellen die Rede. Doch gleichzeitig ist eine gewisse Unsicherheit spürbar und die zentralen Fragen sind: „Wie könnte ein neues digitales Geschäftsmodell für unser Unternehmen aussehen?“, „Wie gelange ich dort hin?“ und „Was geschieht dann mit unserem bisherigen G-Modell?“.

LeanBI wendet ein Workshop-basiertes Vorgehen an, um zusammen mit den jeweiligen Unternehmen die spezifischen Antworten auf obige Fragen zu erarbeiten. In einem selbst entwickelten systematischen Vorgehen erarbeiten wir in Kunden-Workshops top-down und Schritt für Schritt das digitale Geschäftsmodell und die Projekte, die zu seiner Implementierung notwendig sind. Unsere Nähe sowohl zu allen Themen um die Digitalisierung herum als auch unsere breit gefächerte Industrieerfahrung haben sich bei diesem Vorgehen sehr bewährt.

Eine gesunde Unruhe

Die Sorge, den „digitalen Zug“ zu verpassen, ist in vor allem in vielen KMU deutlich wahrnehmbar. Aber gleichzeitig ist doch sehr oft unklar, in welchen konkreten Schritten bzw. Stufen die digitale Transformation angegangen werden kann, ohne das bestehende – und meist bewährte – Geschäftsmodell aufzugeben oder zu gefährden. Ein mehrstufiges Vorgehen nimmt dem Vorhaben einerseits den Schrecken und ermöglicht es gleichzeitig, die Erfahrungen, die in einer Stufe gewonnen wurden, in der nächsten Stufe zu berücksichtigen.

In den meisten KMU erfolgen die Stufen in der Reihenfolge: Produktverbesserung → Prozessverbesserung → Aufbau / Optimierung digitaler Geschäftsmodelle. In den Stufen 1 und 2 kommen dabei bereits häufig digitale Elemente zum Einsatz, wenn auch meist noch im Rahmen des bestehenden Geschäftsmodells. Von einem tatsächlich neuen digitalen Geschäftsmodell spricht man eigentlich erst, wenn zumindest zwei der drei Kernelemente eines jeden Geschäftsmodells digitalisiert sind. Diese drei Kernelemente eines Geschäftsmodells sind:

  1. Das Geschäftsfeld, d.h. welche Produkte, Dienstleistungen, Kunden und Märkte haben wir?
  2. Die Wertschöpfung, d.h. wie wird der Wertzuwachs generiert, (wie weit) ist die Wertschöpfungskette integriert, ist der Kunde Teil der Wertschöpfung usw.?
  3. Das Finanzmodell, d.h. wie verdienen wir unser Geld, in welchem Preissegment sind wir angesiedelt, werden wir nach Stückzahlen oder für Dienstleistungen bezahlt usw.?

Fig. 1: Typische Vorgehensweise in 3 Stufen

In acht Schritten zum neuen digitalen Geschäftsmodell

Fig. 2: in 8 Schritten zum digitalen G-Modell

Ein Vorgehen in klar gegliederten Schritten erleichtert sowohl die Wegfindung als auch die Umsetzung digitaler Geschäftsmodelle. Im Folgenden werden die acht Schritte zum erfolgreichen digitalen Geschäftsmodell kurz skizziert.

 

Schritt 1: Den Startpunkt festlegen, d.h. die spezifische digitale Geschäftsstrategie formulieren. Oder: «Wie sieht der Masterplan für unser digitale Transformation aus?»

 

Schritt 2: Das bestehende und die möglichen neuen digitalen Geschäftsmodelle grafisch und mit Hilfe von morphologischer Kästen beschreiben.

 

Schritt 3: Den gegenwärtigen Zustand und den angestrebten Zielzustand des Unternehmens bezüglich des digitalen Geschäftsmodells sowie der wichtigsten Soft- und Hard Facts beschreiben.

 

Schritt 4: Die Ausprägungen der G-Modelle, d.h. die digitalen Businessziele definieren: «Welche Geschäftsbereiche sollen in welcher Ausprägung digitalisiert werden?»

 

Schritt 5: «Wie können wir den angestrebten Zielzustand konkret und messbar beschreiben?». Mit anderen Worten: die Operationalisierung der Businessziele («Was ist hinterher neu bzw. anders als zuvor?»)

 

Schritt 6: Die erarbeiteten neuen Geschäftsmodelle in methodischer Art und Weise gegeneinander priorisieren und damit das favorisierte Modell identifizieren.

 

Schritt 7: Die zur Umsetzung erforderlichen Projekte definieren und gemäss einer vereinbarten Roadmap durchführen.

 

Schritt 8: Die abgeschlossenen Umsetzungsprojekte hinsichtlich ihres Nutzens für die definierte digitale Unternehmensstrategie auswerten und gegebenenfalls Korrekturen bzw. weitere digitale Massnahmen beschliessen.

Unser Workshop-basiertes Vorgehen

Fig. 3: Drei Workshops zur Erarbeitung eines digitalen Geschäftsmodells

 

In vielen Fällen hat sich bei LeanBI eine Abfolge von drei Workshops zur Erarbeitung und Implementierung von neuen digitalen Geschäftsmodellen sehr bewährt. Selbstverständlich können sowohl die thematische Gliederung als auch der Umfang und die Dauer der Workshops den Anforderungen des jeweiligen Unternehmens angepasst werden.

  • Workshop 1: Das Resultat des ersten Workshops ist die Beschreibung des bzw. der neuen digitalen Geschäftsmodelle (Szenarien) entlang seiner drei Kernelemente Geschäftsfelder, Art der Wertschöpfung und Finanzmodell. Operationalisierte und messbare Ziele beschreiben den neuen «digitalisierten Zustand» des Unternehmens.
  • Workshop 2: Beginnend mit realen Use Cases und basierend auf den Ergebnissen von Workshop 1 werden das bzw. die neuen digitalen Geschäftsmodelle hinsichtlich ihrer zeitlichen, finanziell/wirtschaftlichen, qualitätsbezogenen und räumlichen Ausprägungen ausformuliert. Anschliessend werden anhand einer Unternehmens-spezifischen Systematik die verschiedenen Szenarien gegeneinander priorisiert und so das meistversprechende Geschäftsmodell identifiziert.
  • Workshop 3: Die Umsetzung des zuvor ausgewählten neuen Geschäftsmodells erfolgt in der Regel durch mehrere Projekte entlang einer vereinbarten Roadmap. Diese wird zusammen mit dem Kunden nach der Methode des Fast Prototyping entsprechend gemäss den drei Kriterien Machbarkeit, Dringlichkeit und (grösster) Nutzen erstellt. Und jedes Projekt wird nach Abschluss hinsichtlich seines Nutzens für die digitale Strategie evaluiert. So können jederzeit notwendige Korrekturen an der Roadmap oder weitere digitale Schritte eingesteuert werden.

Fazit

Die Digitalisierung verliert viel von ihrer vermeintlichen Mystik und ihrem Schrecken, wenn man systematisch und schrittweise vorgeht: Schritt für Schritt erarbeitet man so die erforderlichen Strategien und Ziele, gestaltete und priorisiert die zukünftigen Geschäftsmodelle, operationalisiert die Ziele und setzt sie wiederum in Projektziele um. Der Kreis zurück zur digitalen Unternehmens-Strategie schliesst sich mittels der Evaluierung der Ergebnisse der abgeschlossenen Projekte.

TensorFlow

LeanBI ist konstant auf der Suche nach neuen Technologien um innovative Geschäftsmodelle zu entwickeln und neue Projekte zu starten. Eine solche Technologie präsentieren wir in diesem TensorFlow Blog.

 

Was ist TensorFlow

TensorFlow ist eine plattformunabhängige und freie Programmbibliothek für künstliche Intelligenz bzw. maschinelles Lernen. Es ist der Nachfolger von DistBelief, eine ähnliche aber nicht freie Programmbibliothek von Google. TensorFlow wird vor allem für die Modellierung neuronaler Netze benutzt. Im Moment sind  Sprach- und Bildverarbeitungsaufgaben die Hauptanwendungsfälle. Andere Nutzungen sind aber möglich.

Wie funktioniert TensorFlow?

TensorFlow führt numerische Berechnungen durch gerichtete Datenflussgraphen aus. Die interne Struktur von TensorFlow ist wie folgt:

  • Die Tensoren sind Objekte bzw. Datenstrukturen, die Vektoren oder mehrdimensionale Matrizen enthalten.
  • Die Knoten des Datenflussgraphen entsprechen mathematischen Berechnungen (Operatoren).
  • Die Kanten des Datenflussgraphen entsprechen den Tensoren und geben diese an andere Knoten weiter.

Was sind die Vorteile von TensorFlow?

Im Unterschied zu Numpy ist TensorFlow für Machine Learning spezifische Berechnungen optimiert. Ein Beispiel ist die Ableitungen von Matrizen. Die dezentralisierte Architektur von TensorFlow ermöglicht die Berechnung auf mehreren Rechnern oder Grafikprozessoren.

Des Weiteren ist transferlernen (Englisch: transfer learning) möglich: Vortrainierte Modelle werden verwendet um die Merkmale neuer Datensätze automatisch extrahieren zu können. Eine praktische Möglichkeit um neuronale Netze zu benutzen ohne über grosse Datensätze und lange Trainingszeiten zu verfügen. Beispielsweise kann ein neuronales Netz, welches die Klassifizierung von LKWs gelernt hat, nach kurzem Training auch PKWs klassifizieren.

 

Schliesslich ermöglicht TensorFlow die Kreation, Modifikation und Ausnutzung von Neuronalen Netzen in einer vereinfachten Form. Diese Modelle sind oft komplex und dementsprechend profitiert man von bereits geleistetem Programmieraufwand. Die Verschiedene Programmierungsbibliotheken – inkl. Python die wir für unsere Teste verwendet haben – sind sehr einfach und effizient.

Möchten Sie TensorFlow spielerisch ausprobieren? Dann empfehlen wir Ihnen die folgende TenorFlow Homepage mit einem graphischen interaktiven neuronalen Netz.

DEFL – Digitale Transformation im KMU – Jetzt Mal konkret!

In der Schweizer KMU-Landschaft ist eine stark wachsende Unruhe spürbar:
Zwar ist erkannt, dass es sich bei der Digitalisierung um wesentlich mehr als nur einen „Hype“ handelt, doch wo und wie soll man konkret damit beginnen? Was macht der Wettbewerber? Welche Irrwege gilt es zu vermeiden? Am 2. Mai fand in im KKL in Luzern die erste Veranstaltung des DEFL mit dem Titel „Digitale Transformation im KMU – jetzt mal konkret!“ statt (www.defl.ch). Mit dem Ziel, obige und andere Fragestellungen zu beleuchten und dadurch mehr Licht ins Halbdunkel zu bringen.

Ein Helikopterblick auf das Thema Digitalisierung

Im Einführungsvortrag zeigte Prof. Markus Wyss von der Hochschule Luzern mittels einer Studie, dass zwar etwa die Hälfte der darin befragten KMUs für sich eine digitale Strategie reklamiert und dieser auch grosse Bedeutung zumisst, in der praktischen Umsetzung aber noch sehr zögerlich ist.
Dies zeigt sich u.a. bei den Studien-Auswertungen zum Prozess-Automatisierungsgrad, zur Nutzung von Mobile Office, zur Intensität der Einbeziehung der Kunden in das Business oder im tatsächlichen Angebot von digitalen Produkte und Dienstleistungen. Vor allem widerspricht die geringe Bereitschaft, in digitale Technologien zu investieren (nur ca. 20% der befragten KMUs), dem reklamierten «strategischen Glaubensbekenntnis».
Doch in den folgenden Vorträgen wird klar: die digitale Transformation ist nicht aufzuhalten und eine «Kopf-in-den-Sand-Taktik» wird nichts helfen. Dabei muss es nicht immer gleich die Implementierung eines neuen Geschäftsmodells sein: schon mit ersten einfachen und begrenzten Massnahmen zur Produkt- und Prozessoptimierung kann die digitale Transformation schrittweise angegangen werden. Und noch eine mittlerweile beinahe schon triviale Erkenntnis: möglichst den Kunden – und dabei insbesondere sein tatsächliches Verhalten – ins Zentrum der Überlegungen zu stellen, und digitale Vorhaben stets von dieser Warte aus anzugehen.

 

Die wesentlichen (subjektiven) Erkenntnisse

Insgesamt acht Vorträge am Vormittag, 4 parallele Streams mit jeweils sechs Kurzvorträgen am Nachmittag sowie ein Abschlussvortrag befassten sich mit der digitalen Transformation. Im Folgenden sollen exemplarisch nur einige wenige Aspekte bzw. Erkenntnisse kommentiert werden:

  • Unbestrittener Ausgangspunkt für konkrete Massnahmen und Projekte zur Digitalisierung ist die Formulierung einer digitalen Strategie. Offensichtlich tun sich viele KMUs damit aber recht schwer. Zumindest wurden keine solche Strategien exemplarisch genannt.
    Sicherlich ist der Einstieg über zunächst rein operative Schritte einfacher, doch auch schon eine vorläufig formulierte Strategie zwingt einerseits zur Auseinandersetzung mit dem Thema, andererseits kann sie auch nach ersten praktischen Erfahrungen durchaus umformuliert werden.
  • Die beiden Seiten von Fortschritt sind «Chance» und «Risiko»; das ist auch bei der digitalen Transformation nicht anders.
    Aus einigen Vorträgen konnte man den Eindruck gewinnen, dass manche Schweizer KMUs eher Risiko-avers planen und handeln. Und zwar erkennen, dass sich «da draussen etwas tut», aber man sich doch erst mal noch auf’s Abwarten verlegen.
    Verschiedene Vorträge zeigen anhand von historischen Beispielen die Gefährlichkeit dieser Haltung.
  • Die digitale Transformation beginnt nicht erst jetzt, sondern hat, je nach Branche, schon vor etlichen Jahren begonnen. Und oft ist für die beteiligten Unternehmen daraus ein grosser Nutzen entstanden – der übrigens in vielen Fällen von Kritikern anfänglich massiv bezweifelt wurde.
    Eindrückliche Beispiele dazu legen den Schluss nahe, dass sich diese Entwicklung trotz sicherlich manchem Irrweg auch in der Schweiz rasant fortsetzen wird. Und die Schweizer KMUs daher gut beraten sind, diese Entwicklung ernst zu nehmen und beherzt anzugehen.
  • Sollte es nicht vielmehr «disruptive (statt digitale) Transformation» heissen? Dies schlug einer der Vortragenden vor.
    Zugegeben: für Aussenstehende mag manche Neuerung disruptiv, also «abgerissen» wirken. Doch bei näherer Betrachtung verliert sich dieser Eindruck meist, und viele neue Produkte, Prozesse oder Dienstleistungen zeigen sich entweder als das Ergebnis zäher und kluger Weiterentwicklung oder gründlichen Durchdenkens des bestehenden (und des zukünftigen) Geschäftsmodells.
    Die gute Nachricht dabei ist: Ohne Disruption verliert das Ganze auch viel von seiner Unnahbarkeit und seinem Schrecken, d.h. der Einstieg wird leichter.
    Und – streng genommen – stehen «Disruption» und «Transformation» sinngemäss sogar im Widerspruch zueinander, denn Transformation bedeutet kontinuierliche Umwandlung.

 

Die Randbedingungen

Das KKL in Luzern ist ein prächtiger Veranstaltungsort, zumal bei noch prächtigerem Frühlingswetter. Eine perfekte und «geräuschlose» Vorbereitung und Organisation sowie ein ausgezeichneter Stehlunch rundeten den guten Eindruck ab.
Etwas schade war allerdings, dass nur eine überschaubare Zahl der Teilnehmer aus der Industrie kam, dagegen viele Treuhänder zu den Besuchern zählten. Dennoch ergaben sich für LeanBI einige hochkarätige und sehr interessante Gespräche mit potentiellen Kunden. Im Zentrum der meisten dieser Gespräche stand die Entwicklung neuer digitaler Geschäftsmodelle. Hier hat LeanBI eine seiner grossen Stärken und hier wird allgemein auch der grösste Nutzen der digitalen Transformation gesehen.

 

Fazit

Was bleibt als Zusammenfassung?

  • Kunde im Mittelpunkt:
    Sämtliche Überlegungen und Massnahmen zur Digitalisierung und zu neuen Geschäftsmodellen sollten beim Kunden beginnen. In vielen Unternehmen ist diese Sicht anscheinend noch nicht ausreichend entwickelt.
  • Klein anfangen – aber anfangen!
    Erste konkrete Schritte, z.B. in der Produkt- oder Prozessverbesserung, nehmen der Sache ihren Schrecken und zeigen gleichzeitig auf, wohin die weitere Reise gehen kann. Also ein eher agiles Voranschreiten in kleinen Projekten, statt eine langjährige digitale Roadmap aufzubauen, die dann doch wieder geändert werden muss.
  • Es kommt so oder so:
    Es nicht die Frage, ob die digitale Transformation kommt oder nicht. Sondern, wie rasch sie in welcher Branche voranschreitet. Und wie gut die entsprechenden Unternehmen darauf vorbereitet sind, und zwar nicht nur technisch, sondern vor allem auch mental.

Anomalieerkennung am Beispiel eines Motors

In diesem letzten Artikel unserer Ananomalierkennungs-Serie zeigen wir ein praktisches Beispiel der Anomalieerkennung. Wir erklären, in welchem Szenario der Anomalieerkennung wir uns befinden und welche Anomalien wir in Betracht ziehen. Mehr Einzelheiten erfahren Sie in den vorhergehenden Artikeln zum selben Thema: „Die drei verschiedenen Arten von Anomalieerkennung“ und „Die drei Szenarien der Anomalieerkennung“.

 

Es handelt sich um einen Elektromotor. Dieser dreht mehrere durch einen Antriebsriemen miteinander verbundene Metallscheiben. Die einzelnen Teile des Motors und die Scheiben vibrieren, wenn der Motor läuft. Die Vibrationen werden mit einem drahtlosen Vibrationssensor der Firma Neratec gemessen. Diese Messungen ermöglichen die Erkennung möglicher Anomalien des Motors.

 

Anomalieerkennung am Elektormotr, ausgestellt an der Sindex
Abb. 1: Elektormotor an unserem Stand auf der SINDEX 2016 in Bern. Blau: Motor. Rot: Vibrationssensor. Grün: Echtzeitanomalieerkennung.

 

Die vollständige Anlage ist in Abb. 1 dargestellt. Der Motor ist blau, der Vibrationssensor rot und die Benutzeroberfläche grün umrahmt. Wir haben diese Versuchsanordnung bei der großen, alle zwei Jahre stattfindenden Technologiemesse Sindex 2016 aufgebaut.

 

In den nächsten Kapitteln gehen wir in wenigen Zeilen auf die Einzelheiten der Problemerkennung, Problemlösung und Durchführung der Anomalieerkennung ein.

Problemerkennung:

Die Hauptursachen von Funktionsstörungen eines solchen Motors sind folgende: Der Motor dreht sich zu langsam, zu schnell oder eine der Metallscheiben ist in Unwucht. Weitere Funktionsstörungen haben wir absichtlich außer Acht gelassen, da sie mit einem Vibrationssensor nicht von anderen Störungen unterscheiden lassen. Ein Problem der Stromversorgung beispielsweise, verhindert, dass der Motor läuft: Wie wäre ein Stromunterbruch vom ausgeschalteten Motor mit einem Vibrationssensor zu unterscheiden?

 

Wir wollen herausfinden, ob der Motor richtig funktioniert und die verschiedenen Anomalien erkennen. Wir haben also ein Klassifizierungsproblem mit fünf Klassen:

 

  1. 1. Der Motor ist ausgeschaltet
  2. 2. Der Motor funktioniert normal
  3. 3. Der Motor läuft zu langsam
  4. 4. Der Motor läuft zu schnell
  5. 5. Eine der Metallscheiben ist in Unwucht

 

Im Vorfeld haben wir Messungen jeder Klasse vorgenommen und jede Messung einer der fünf Klassen zugeordnet. Dadurch sind die zu erkennenden Anomalien vollständig bekannt.

Problemlösung:

Die zur Verfügung stehenden Daten werden durch den Vibrationssensor gesammelt. Dieser stellt ein Signal mit 2 kHz Abtastrate zur Verfügung. Dieses Signal haben wir mittels Fast Fourier Transformation (FFT) in den Frequenzbereich transformiert. Die Features (verwendete Merkmale) unseres Modells sind somit die Koeffizienten der Fourier-Transformierten.

 

Verschiedene Spektren je nach Zustand des Motores

 

Abb. 2: Mittlere Frequenzen je nach Zustand des Motors (ausgeschaltet, normal, zu schnell, zu langsam)

 

Im vorliegenden Beispiel haben wir mehrere Modelle angewandt und getestet. Unser Ziel war es, richtige Vorhersagen schnell und mit einem einfachen Algorithmus zu erhalten. Unsere Wahl fiel schließlich auf den Algorithmus Random Forest. Er ist einfach anzuwenden, schnell, erzielt zufriedenstellende Ergebnisse und gibt Auskunft über den Einfluss der verschiedenen Features (Merkmale) auf die Anomalienklassifizierung.

Durchführung:

Das Projekt wurde mit der Software Dataiku durchgeführt. Es erleichtert und beschleunigt Datenimport, -bereinigung und -verarbeitung. Auch das Erstellen eines Modells ist einfacher. Unseren Algorithmus Random Forest können wir mit einem einzigen Klick anwenden und auswerten.

 

Datenfluss in Dataiku

Abbildung 3: Datenfluss des Projekts in Dataiku

 

Abschließend ein kurzes Video, das auf der SINDEX aufgenommen wurde, und in welchem wir unseren Motor live vorstellen:

 

Seminar-Rückblick “Data Science in der Industrie 4.0”

Die mentale Hürde ist wie so oft die höchste: Zwar spricht beinahe jeder von der Notwendigkeit und Unaufhaltsamkeit der Digitalisierung (auch) in der Industrie, aber wie beginnt man, wo ist der beste Einstieg und in welchem Bereich lassen sich erste Erfolge am einfachsten realisieren? M&F Engineering AG in Fahrweid, seit mehr als 30 Jahren auf die Schwerpunkte Software-Entwicklung, automatisiertes Testen und Prüfsysteme fokussiert, veranstaltet mehrmals jährlich Seminare zu diesen und verwandten Themen. Am 21. März ging es vor allem um die Beantwortung obiger Fragen, und LeanBI war als Partnerfirma von M&F zu einer Handvoll Kurzvorträgern eingeladen.

Eine gelungene Veranstaltung

Um es gleich vorweg zu nehmen: Es war eine überaus gelungene und mit ca. 50 Teilnehmern auch vollständig ausgebuchte halbtägige Veranstaltung. Die verschiedenen Vorträge befassten sich mit sehr konkreten Themen wie Fast Prototyping für Data Science Projekte, dem Einsatz gängiger Machine-Learning-Algorithmen mit Beispielen und ihren jeweiligen Vor- und Nachteilen sowie den Ergebnissen eines Kunden-Workshops. Doch auch der Blick aus der «Helikopter-Perspektive» fand mit einem Beitrag zum Nutzen von Big Data Platz in der Veranstaltung.

big_data_nutzen

Die Kurzvorträge

  • Begrüssung und Einführung (R. Bättig, Geschäftsführer M&F Engineering AG)
    Reto Bättig startete die Veranstaltung pünktlich um 9:00 mit einem kurzen Abriss zu den Geschäftsfeldern und insbesondere zu dem ausgefeilten Trainee-Programm von M&F und der Vorstellung der Agenda.
  • Einführung LeanBI (M. Tesch, LeanBI AG)
    Eine kurze Vorstellung von LeanBI und die Darstellung typischer Data Analytics Use Cases markierten den Einstieg in den Fachteil.
  • Der Weg von Big Data zu Nutzen und Wert (W.Weber, LeanBI AG)
    Sämtliche Überlegungen zur Anwendungen digitaler Möglichkeiten sollten beim angestrebten Nutzen beginnen. Dieser «diktiert» über die Stationen «Wissen» und «Information» sozusagen im Rückwärtsgang, welche Daten erhoben und ausgewertet werden sollten. Ein Beispiel aus der Medizinaltechnik für einen solchen Weg illustriert diese Vorgehensweise.
  • Übersicht über die wichtigsten Algorithmen und deren Möglichkeiten (S. Pauli und J. Bovay, beide LeanBI AG)
    Was kann man aus den Geräuschen, welche eine Aufzugstüre beim Bewegen erzeugt, über den Zustand des Türsystems herauslesen? Ein einfacher Algorithmus gibt die Antwort. Oder: Was sind die (überraschenden) Erkenntnisse aus der Auswertung der Daten eines städtischen Velo-Verleihs? Ein wesentlicher Benutzerkreis der Velos sind «Sonntagsfahrer»! Das hätte zuvor niemand erwartet, erst ein Algorithmus zeigt diese Tatsache auf. Beginnend mit solchen praktischen Anwendungen erklärten die beiden Vortragenden exemplarisch vier verschiedene, aber stets einfach anwendbare Algorithmen, die häufig zum Einsatz kommen, sowie deren industrielle Einsatzmöglichkeiten. Auf einmal verliert die Sache ihren Schrecken und nutzbringende Anwendungen werden plastisch begreifbar.
  • Data Science Projekt-Beispiel: Geberit (R. Bättig, M&F Engineering AG)
    Bei einem vollautomatischen Prüfsystem bei Geberit bricht bei Fehlern in der Vorbereitung die Prüfung irgendwann ab. Dadurch geht Zeit geht verloren und die Prüfung muss wiederholt werden. Zusammen mit den Datenspezialisten von LeanBI wurde die Auswirkung eines häufig zu wechselnden Teststeckers untersucht; diesen erst zu tauschen wenn dies wirklich nötig wird (Predicitive Maintenance), reduziert den Verbrauch an neuen Steckern. Doch der eigentliche Nutzen zeigte sich dann plötzlich ganz woanders: Es gibt Prüfteams, deren Ausschussrate massiv niedriger als die anderer Teams ist. Unter Berücksichtigung des Datenschutzes lassen sich so mögliche Verbesserungen erkennen, deren Nutzen den von vorausschauender Wartung bei Weitem übersteigt.
  • Fast Prototyping: Inspiration, was möglich ist (S. Pauli, LeanBI AG)
    Mit der Methode des fast Prototyping ist es z.B. möglich, mittels einer ersten Datenanalyse und ohne grossen Aufwand grundlegende Erkenntnisse über komplexe Produktionsverfahren zu gewinnen. Diese sind als Basis für eine Qualitäts-stabile Produktion und deren Optimierung von grossem Nutzen. S. Pauli zeigte das im Abschluss-Vortag u.a. am Beispiel der Herstellung von Dialysefiltern.

Fazit

Der Einstieg in die Gebiete des Machine Learning und der industriellen Datennutzung ist viel weniger kompliziert als gedacht: Schon die erste Anwendung einfach zu bedienender Algorithmen liefert erste wertvolle Erkenntnisse und vor allem Antworten auf Fragen, die man zu Beginn gar nicht gestellt hatte. Aber genau diese Antworten weisen den richtigen Weg für die weitere Untersuchung der Systeme und ihrer Optimierung. Und wenn man parallel zu diesen praktischen Anwendungen stets deren erforderlichen Nutzen herausarbeitet und beachtet, ergeben sich weittragende digitale Lösungen.

Kurz zusammengefasst: Ohne Scheu anfangen, auch wenn man anfangs vielleicht noch gar nicht genau weiss, wohin die Reise gehen wird. Der weitere nutzbringende Weg wird oft erst durch die überraschenden Ergebnisse erster Datenauswertungen klar.
Auf geht’s!

Cyber-physikalische mechatronische Systeme und Smart Factory-Konzepte auf Anlagenebene

Nach der Konsumgüterindustrie verändert die Digitalisierung vermehrt auch die Industrielandschaft. Oder anders gesagt: der Vormarsch Cyber-Physikalischer Systeme (CPS) findet bereits spürbar statt. Prof. Wernher van de Venn von der ZHAW hat dazu eine Vorlesungsreihe mit dem Thema „CAS Industrie 4.0 Implementierung“ aufgelegt. Deren erstes Modul «Cyber-physikalische mechatronische Systeme und Smart Factory-Konzepte auf Anlagenebene“ wurde im März 2017 von LeanBI bestritten. Hier ein kurzer Abriss:

Zentrale Fragen der Vorlesungsreihe

Die zentralen Fragen der Vorlesungsreihe mit insgesamt sechs Modulen sind:

  • Wie entwickelt man im Kontext von Industrie 4.0 Anlagen und Systeme?
  • Wie integriert man neue Fertigungstechnologien sowie verbundene Objekte zu einer intelligenten Steuerung?
  • Wie erhält man auf dieser Basis neue Services, Produkte und Geschäftsmodelle mit einem Mehrwert für Anwender und Kunden?
  • Welche neuen Risiken entstehen im Umfeld von Industrie 4.0 und wie werden diese gemanaged?

Aufbau von Modul A

In allen Modulen wird auf einen guten Mix aus Vorlesung und Workshops geachtet, um den Teilnehmern (Leitende in Produktion u. Logistik, Geschäftsführer von KMUs, CTOs und CIOs sowie Ingenieure, Softwareentwickler und -Architekten, Marketingfachleute usw.) mögliche Lösungen und praktische Erfahrung an die Hand zu geben.

Das insgesamt 2-tägige Modul A umfasste dabei die folgenden Themen:

  • Einführung Industrie 4.0
  • Schweizer Maschinenhersteller Use Case
  • Einführung in Cyber Physikalische Systeme
  • Technologien von CPS
  • Security und CPS
  • CPS Anwendung und Modellierung auf Anlagen
  • Workshop: „CPS Ideen“
  • Von Mechatronic zu CPS: Ein historisch-technischer Abriss
  • Von Daten zum Nutzen
  • Algorithmen in CPS (Doppellektion)
  • CPS und digitale Geschäftsmodelle: Methoden
  • Workshop: „Methoden zur Erarbeitung digitaler Geschäftsmodelle auf Basis Cyber-physikalischer Produktions- und Anlagensysteme“

Ziel dieses ersten Moduls war es, den Studierenden ein Grundverständnis von CPS-Systemen und ihrer vielfältigen Ausgestaltungs- und Anwendungsmöglichkeiten zu geben. Einer der Schwerpunkte dabei waren «Neue Service- und Geschäftsmodelle mit Industrie 4.0», und dort insbesondere im Bereich „Predictive Maintenance“.

Die Anwendung auf die Praxis: zwei Workshops

In den zwei integrierten Workshops konnten die Teilnehmer dann das Erlernte versuchsweise in selbst gewählten CPS-Beispielen in die Praxis umsetzen:

  • Die Produktion von Elektro-Velos
  • Predictive Maintenance am Förderband einer Kehrichtverbrennungsanlage
  • Eine «Smarte Krücke», die eine gehbehinderte Patienten in nutzbringender Weise unterstützt
  • Ein intelligenter Schaltschrank, der sich den weltweit unterschiedlichen Witterungsbedingungen selbständig anpasst

Schon während der Vorlesungen, ganz besonders aber in den Workshops war deutlich zu beobachten, wie die Teilnehmer dank der intensiven Auseinandersetzung mit den Themen Digitalisierung und CPS zunehmend eine «digitale Phantasie» entwickelten und begannen, in neuen Geschäftsmodellen zu denken und diese miteinander zu diskutieren.
Übrigens ein Phänomen, welches LeanBI auch in zahlreichen Kundengesprächen und -Workshops beobachtet: anfänglich Skepsis oder sogar Unsicherheit schlägt bei Beschäftigung mit dem Thema in Interesse und gelegentlich sogar in kaum noch zu bremsende Begeisterung um.

Kurzer Abriss der Vorlesungsreihe

Nach Darstellung u.a. der CPS-Situation in der Schweiz, der historischen und (sicherheits-)technischen CPS-Aspekte und verschiedener Algorithmen und (z.T. sogar historischer) Use Cases schloss sich der Bogen in Modul A mit dem allgemein viel Unsicherheit auslösenden Thema «Digitale Geschäftsmodelle».

Aber auch hier gelang es, den Teilnehmern einen praktikablen mehrstufigen Ansatz zu vermitteln, der unmittelbar auf bestehende und auf neue (digitale) Geschäftsmodelle angewendet werden kann.
Insbesondere die unabdingbare Ausrichtung auf den Nutzen solcher Geschäftsmodelle war anfänglich ein intensiver Diskussionspunkt, entwickelte sich aber im Verlauf des Moduls A geradezu zu einer alles verbindenden «Klammer» für die Einführung von CPS nach dem Motto: der Kundennutzen muss immer der Ausgangspunkt für die Implementierung solcher Systeme sein.

Grad_der_Digitalisierung

Fazit

Cyber-Physikalische Systeme sind gar nicht so «ausserirdisch» oder neu, wie oft angenommen wird. Es gibt vielmehr gute historische Beispiele und praktische Einstiegsmöglichkeiten, deren Nutzen sich schon nach kurzer Zeit manifestiert. Die sequentiellen CPS-Aufbaustufen im industriellen Alltag sind häufig:

  1. 1. Produktverbesserung
  2. 2. Prozessverbesserung
  3. 3. digitales Geschäftsmodell und seine Optimierung

So verliert das Thema viel von seinem Schrecken und wirft rasch erste Erfolge ab.
Die hochaktuelle Vorlesungsreihe der ZHAW leistet dafür einen wertvollen Beitrag.

DEFL – Digitale Transformation im KMU – Programm

Jeder spricht von ihr: der digitalen Transformation. Und im industriellen Bereich ist durchaus eine deutliche Unruhe und Verunsicherung bzgl. konkreter Ansätze und Einstiegsmöglichkeiten spürbar. Diese Veranstaltung am 2. Mai 2017 soll genau diesem Einstieg seine vermeintliche Höhe nehmen und anhand konkreter Praxisbeispiele zeigen, wie durch Digitalisierung in einem KMU unmittelbarer Nutzen erreicht werden kann.

 

Im Anschluss an das Veranstaltungsprogramm geht’s ganz unten weiter zur Anmeldung. Wir wünschen Ihnen eine anregende und interessante Veranstaltung im KKL in Luzern!

 Veranstaltungsprogramm

ab 08.30: Check-In und Begrüssungs-Kaffee

 

09.15: Beginn der Veranstaltung

 

Vorstellung der Studie zum Digitalen Reifegrad der Schweizer KMUs
Prof. Markus Wyss, Dozent Hochschule für Wirtschaft Luzern – Informatik

 

Über Disruption und die Verschiebung der Kernkompetenzen
Prof. Dr. Gunter Dueck, Mathematiker, ehemaliger IBM CTO und satirisch-philosophischer Schriftsteller

 

Die Digitale Agenda stellt den Kunden ins Zentrum – endgültig!
Dr. Marianne Janik, Microsoft, Country Manager Switzerland

 

Pause

 

10.50: Beginn zweiter Teil

 

Internet of Things – Smarte Sensoren für eine bessere Umwelt
Christian Ruckstuhl, Geschäftsleiter, inNET Monitoring AG

 

Die Digitalisierung als Wachstumschance für Schweizer KMUs
Benedikt Bitzi, Google, Leiter KMU Schweiz & Österreich

 

MyMedela – Digitales Marketing und Kundenbindung
Thomas Schärli, Head of E-Business, Medela AG

 

Automatisierung, Bots, Chancen
Maurice Codourey und Thomas Schulz, Konferenzgründer botscamp.co

 

Einhaltung der Norm für die Rückverfolgbarkeit und die Prozess-Optimierung – Dank Digitalisierung kein Zielkonflikt
Oliver Busse, Qualitätsmanager, Hofstetter PCB AG
Denis Druzic, Leiter Business Unit Projekte, Noser Engineering AG

 

Ab 12.30: Mittagspause, Stehlunch und Networking

 

13.30: Beginn des individuellen Nachmittag-Programms

 

Präsentation von realisierten Firmen-Projekten der Digitalen Transformation
Produkte und Dienstleistungen werden von den Praxis-Partnern anhand von konkret umgesetzten Kunden-Projekten vorgestellt.

 

Dazwischen: Freier Besuch der Partner-Ausstellung

 

16.15: Abschluss-Vortrag

 

Die Auswirkungen der Digitalisierung in den nächsten 36 Monaten
Dr. Andreas M. Walker, Zukunftsforscher

 

Roundtable
Experten und Teilnehmer diskutieren ihre Einschätzung der digitalen Veränderungen der kommenden 36 Monate

 

17.15 Ende der Veranstaltung

Anmeldung

Die Anmeldung erfolgt direkt über die Veranstalterseite. Am besten verwenden Sie dafür unseren Kunden-Promo-Code LeanBI@DEFL, dank dem sich die Anmeldegebühr auf Fr. 250 (anstatt Fr. 350) reduziert.

 

anmeldung

Die drei Szenarien der Anomalieerkennung

In einem realen Problemfall sind die zur Verfügung stehenden Daten nicht immer die, welche man im Idealfall gerne hätte. Oft ist es teuer, schwierig und/oder es dauert lange, die verschiedenen notwendigen Informationen zusammenzutragen. Im vierten Artikel unserer Anomalie-Reihe beschreiben wir, wie sich drei Szenarien der Anomalieerkennung durch die Vollständigkeit der vorhandenen Daten definieren: Überwachte, semi-überwachte und unüberwachte Anomalieerkennung.

 

Beispielsweise ist im Rahmen der Erkennung eines Kreditkartendiebstahls die Anzahl der betrügerischen Transaktionen deutlich geringer als die Anzahl normaler Transaktionen. Anders ausgedrückt: Die Anzahl der Anomalien ist begrenzt, und das System muss sich mit sehr wenigen Beispielen begnügen um für die Erkennung angewendet zu werden.

 

In bestimmten Fällen ist es nicht einmal möglich, vorab die Anomalien zu messen. In der zivilen und militärischen Luftfahrt werden mehrere Sensoren an den verschiedenen Triebwerken der Maschinen angebracht. Das Ziel ist es festzustellen, ob es in den komplexen Funktionsabläufen des Maschinenantriebs ein Problem gibt. In der Testphase ist es jedoch zu teuer, einen Triebwerk zu beschädigen, nur um anomalie Messungen vorzunehmen. Der Erkennungsalgorithmmus muss sich mit Daten eines Triebwerks in gutem Zustand begnügen.

Triebwerk
Ein Triebwerk sollte nicht beschädigt werden, nur um Fehler-Daten zu erhalten.

 

 

Im Allgemeinen unterscheidet man die folgenden Szenarien, bei üblicherweise ansteigendem Schwierigkeitsgrad: Überwachte, semi-überwachte und unüberwachte Anomalieerkennung.

Überwachte (supervised) Anomalieerkennung:

Dies ist der einfachste Fall, aber auch der seltenste und unrealistischste. In diesem Szenario sind zu jeder einzelnen Anomalie viele Daten vorhanden und es gibt auch eine grosse Menge an Daten ohne Anomalie. Dieser Fall ist einfach, denn es handelt sich um ein Klassifizierungsproblem mit zwei oder mehr Klassen, je nach Anzahl der betrachteten Anomalien. Auf dieses Klassifizierungsproblem können bewährte Methoden angewandt werden. So viele hochqualitative Daten zu erhalten ist allerdings selten. Denn es ist meist schwierig, ausgezeichnete Daten für jede Anomalie zu erhalten. Auch wenn man keinen Extremfall, wie den des Flugzeugmotors, annimmt, ist es schwierig, Daten für alle vorstellbaren Anomalien zusammenzutragen. Aus diesem Grund kommt dieses Szenario nur selten zur Anwendung.

Semi-überwachte (semi-supervised) Anomalieerkennung:

In diesem Fall sind die Daten nur für den Normalzustand vorhanden. Es gibt also keine Daten zu den Anomalien. Das Beispiel des Flugzeugmotors gehört zu dieser Kategorie. Die Tatsache, dass dieses Szenario realen Bedingungen entspricht, macht es zu einem sehr aktiven Forschungsbereich.

Die Schwierigkeit liegt hier in der Schaffung eines vollständigen Modells, welches sämtliche normalen Daten abbildet. Man muss darauf achten, dass dieses Modell nicht zu allgemein wird und Anomalien nicht als normale Größen betrachtet werden. (siehe Artikel: «Die fünf grössten Schwierigkeiten der Anomalieerkennung» Abschnitt „Wahl der Entscheidungsgrenze“).

Unüberwachte (unsupervised) Anomalieerkennung:

Das letzte Szenario erfordert keine gekennzeichneten Daten. Es gibt also einen Datenhaufen ohne, dass die Information vorliegt ob die Daten zu einer Anomalie gehören oder ob alles in Ordnung war. Deswegen ist dies das am häufigsten anwendbare Szenario. Um die Anomalien zu identifizieren, geht der Algorithmus grundsätzlich davon aus, dass es weitaus mehr Normwerte als Anomalien gibt.

Im Beispiel der Erkennung eines Kreditkartendiebstahls würde der Algorithmus auf sämtliche verfügbaren Transaktionen angewandt. Er würde die Transaktionen mit sehr großen Beträgen als anormal betrachten, da diese viel seltener auftreten. Jedoch wären betrügerische Transaktionen mit kleinen Beträgen schwieriger aufzudecken. Es sei darauf hingewiesen, dass der Algorithmus in einem realen Fall ebenso weitere Parameter, wie Transaktionsdatum, Ort, gekaufte Ware, usw. in Betracht ziehen würde.

Veranstaltung: Digitale Trans­formation im KMU

Die Digitalisierung der Welt – insbesondere der industriellen – ist in aller Munde. Und wir von LeanBI spüren in unserem Umfeld nicht nur grosses Interesse an diesem Thema, sondern auch eine gewisse Unruhe und Sorge, „den Zug zu verpassen“:
Beinahe täglich werden wir mit Fragen konfrontiert wie: „Wie findet ein KMU den besten Einstieg in die Thematik?“, „In welchem Bereich lässt sich am einfachsten oder schnellsten Nutzen erzeugen?“ oder „Wie machen es andere – und welche Fehler wollen wir vermeiden?“. Zusammen mit unseren Kunden konnten wir hier schon viele befriedigende Antworten erarbeiten.

Digital_Enterprise_Forum_Lucerne

 

Diese Fragen bewegen offensichtlich sehr viele Firmen im In- und Ausland, oft aber mangelt es dabei an ganz konkreten, in die Praxis umsetzbaren Schritten. Und genau hier setzt das Digital Enterprise Forum Lucerne (DEFL) am 2. Mai 2017 an: „Es zeigt anhand von praktischen Beispielen, was hinter den verschiedenen Themen der Digitalisierung steckt und wie Firmen diese heute bereits umgesetzt haben“ (Zitat).

Programm

Das Programm besteht am Vormittag aus Impulsreferaten und Praxisbeispielen zu den Themen IoT, E-Commerce, Bots und Industrie 4.0. Der Nachmittag der Veranstaltung ist der Praxisteil: Umsetzungspartner aus den verschiedensten Bereichen zeigen ihre bereits umgesetzten Digitalisierungs-Projekte. Hier können Sie sich Ideen und Anregungen für Ihr eigenes Unternehmen holen und mit den erfahrenen Spezialisten Ihr individuelles Anliegen diskutieren. Auch wir von LeanBI sind dort mit einem eigenen Stand und einem Kurzvortrag zum Thema „Produktionsoptimierung“ vertreten. Das detailierte Programm finden Sie hier im Veranstaltungsprogramm. Natürlich freuen wir uns, wenn Sie uns dort besuchen und wir Ihre ganz spezielle Situation gemeinsam besprechen können.

Ziel der Veranstaltung:

Denn das ist genau das Ziel der Veranstaltung: Sie haben eine klare Vorstellung davon gewonnen:

  • was die ersten konkreten Umsetzungsansätze und -Schritte in Ihrem KUM sein könnten
  • wie Sie und Ihr Unternehmen am besten und schnellsten zu ersten nutzbringenden Resultaten kommen können
  • und vielleicht sogar schon, welche Projekte Sie mit welchen Spezialisten umsetzten könnten

Anmeldung

Sie können sich zum DEFL am 2. Mai 2017 direkt über www.defl.ch anmelden. Am besten verwenden Sie dafür unseren Kunden-Promo-Code LeanBI@DEFL, dank dem sich die Anmeldegebühr auf Fr. 250 (anstatt Fr. 350) reduziert.

Big Data in der Prozessindustrie: Rückblick auf die Dechema

dechema

 

Geboten wurden uns am Praxisforum der Dechema zum Thema Big Data in der Prozessindustrie eine spannende Mischung aus Impulsvorträgen, Erfahrungsberichten und Anbietervorträgen. Und nicht zu vergessen die spannenden Gespräche an unserem Stand, wo wir in Zusammenarbeit mit unserem Partner acs ag unsere Demos zum Thema Advanced Analytics vorstellen durften.

 

Natürlich haben uns besonders die Erfahrungsberichte aus der Prozessindustrie zum Thema Advanced Analytics interessiert. Hervorgestochen sind dabei die Vorträge von Clariant, DLR/BASF, DFKI/Saarstahl und dem Frauenhofer Institut über die wir hier berichten wollen.

 

 

Clariant: Big Data Analytics for Batch Processes

 

Frau Sindy Thomas hat uns aufgezeigt, warum das Thema Big Data/Advanced Analytics zu Oberst auf der Agenda des Management der Clariant steht. Es sind die in den letzten Jahren stark gefallenen Kosten zur Aufbereitung der Daten und die Bereitschaft der Gesellschaft zum Thema IoT, die hier als wichtigste Faktoren genannt werden. Übergeordnet steht bei den Big Data Vorhaben der Clariant das Ziel, den Entscheidungsprozess massiv zu beschleunigen. Frau Thomas hat uns anschaulich am Beispiel der Batch-Prozess-Analyse demonstriert, wie ein solches Thema im Hause der Clariant angepackt wird. Die Visualisierung der Daten steht dabei zuvorderst. Das ist genau das Thema, dass auch wir mit unseren Visualisierungstools ins Zentrum stellen. Und um ein erfolgreiches Projekt zu realisieren benötigt es nicht nur Daten, Algorithmen und IT-Infrastruktur, sondern besonders auch die talentierten Data Scientist, die gemeinsam mit den Ingenieuren Informationen aus den Daten generieren können.

 

 

DLR/BASF: Frühzeitige Erkennung und Entscheidungsunterstützung für kritische Situationen im Produktionsumfeld

 

Data Collection (Datensammlung) und Data Preparation (Datenaufbereitung) sind die grossen Herausforderungen in einem Big Data Projekt, wie die BASF ausführt. Ziel war ein Assistenzsystem auf die Beine zu stellen, sodass z.B. Foaming Events (Schaumbildung in den Kolonnen) oder Signalabweichungen frühzeitig prognostiziert werden, um dann das Betriebspersonal rechtzeitig zu warnen. Das Ziel wurde erfolgreich erreicht, aber der Aufwand für die Big Data Infrastruktur und Datenvorbereitung war gross. Wir von der LeanBI bieten für einen solchen Fall vorbereitete Infrastrukturen und geeignete Tools für die Datenaufbereitung an. Damit können genau da, wo hohe Kosten anfallen, Projekte so redimensioniert werden, dass sogar KMU’s sich dies leisten können.

 

 

iProduct- Big Data Analytics in the Steel Industry

 

Herr Emrich vom DFKI hat uns in diesem eindrücklichen Referat aufgezeigt, wie ein solches Thema in der Stahlindustrie angegangen wird. Schliesslich ist die Stahlerzeugung auch ein verfahrenstechnischer Prozess (Reduktion, Stahlerzeugung, Giessen, Walzen, Fertigung). Ziel war im Casting Prozess (Giessprozess) die Stahlqualität zu erhöhen, ein besseres Warnsystem im Prozess einzuführen, um dann auf der Grundlage der gemessenen Daten bessere Entscheidungen treffen zu können. Auch die Optimierung der Produktionsplanung und Erhöhung des Gesamtdurchsatzes sind wichtige Ziele des Projekts. Grosse Herausforderung ist und war die verschiedenen Komponenten im Prozess und dazugehörigen Datenströme in eine analytische konsistente Sicht zusammenzubringen. Dabei sind Themen wie Abtastrate am Sensor,  Messungsverzögerungen, Messfehler, Messausfälle von grosser Bedeutung. Das Projekt hat schon einiges erreicht, ist aber noch nicht am Ende.

 

 

Frauenhofer IFF: USE CASES OF DATA ANALYTICS IN THE PROCESS INDUSTRY

 

Das Frauenhofer IFF hat anhand verschiedener Use Cses aufgezeigt, dass man auch mit kleinem Budget gute Resultate zu erreichen sind. Besonders im Bereich der Soft Sensors war das Institut erfolgreich unterwegs. Mit algorithmischen Modellen werden Messungen so zusammengefasst, dass  sich teure Messinstrumente  eliminieren lassen. Sei es bei der Abgasreinigung, bei der Digestion (Gärung) oder bei der Prognose des Stromverbrauchs konnten sehr schöne Use Cases umgesetzt werden.

 

Alles in allem zwei spannende Tage für Wissenschaftler, Data Scientist, Ingenieure und Beratern. Klicken Sie auf die Links um mehr zu den Präsentationen zu erfahren.