Prozessoptimierung und Prozesssteuerung mit Predictive Analytics

Mit Predictive Analytics (Vorausschauender Analytik) können wir Qualitäten besser kontrollieren. Und wir können den Herstellprozess damit optimieren. Im Folgenden wird aufgezeigt, wie wir dabei vorgehen.

Wir kennen die Methoden der Prozessoptimierung wie TQM (Total Quality Management), Kaizen, Six Sigma, FMEA (Fehlermöglichkeit- und Einflussanalyse) oder Lean Management. Alle diese Methoden haben zum Ziel, die Prozesse in den Industrien (kontinuierlich) zu verbessern. Und alle diese Methoden haben vielen Industrien einen hohen Qualitätsstandard verschafft. Die Prozessoptimierung mit Predictive Analytics ist keine neue Methodik in dieser Kategorie, sondern unterstützt bestehende Qualitätsmethoden in zusätzlichen Dimensionen. Denn um einen Prozess mit Qualitätsmethoden optimieren zu können, muss immer und immer mehr gemessen werden. Nur wenn Daten vorhanden sind, kann auch Wissen generiert werden. Und eine Datenanalyse kann man unterschiedlich intensiv betreiben. Predictive Analytics geht die Datenanalyse so an, dass Schwankungen im Prozess frühzeitig erkannt werden und damit der Prozess gegebenenfalls auch gesteuert werden kann.
Predictive Analytics: Verbindungen zu Six Sigma, TQM, FMEA, Lean Management, Kaizen und Kanban
Abb.1: Methoden der Prozessoptimierung und Predictive Analytics

In der Produktion fallen viele Messdaten an. Diese werden teilweise in den MES (Manufacturing Execution Systems) oder computerunterstützen Steuerungen gespeichert. Das Monitoring und die Steuerung haben zum Ziel, den Produktionsprozess möglichst stabil zu halten. Viele der dabei anfallenden Daten sind in dieser Form ein Wegwerfprodukt des Anlagen-Monitoring und der Anlagensteuerung. Die Daten lassen sich aber zusätzlich nutzen, mit Predictive Analytics.

Denn innerhalb eines Prozesses treten immer Fluktuationen der Eingangs- und Umgebungsgrössen auf, die keine Regelgrössen sind, die sich aber trotzdem in Schwankungen der Produktqualität manifestieren. Diese Fluktuationen sogenannter Einflussparameter können sich im Sekundenbereich, Stunden, Tages- oder Wochenbereich abspielen und überlagern sich gegenseitig in ihrer Auswirkung. Zum Beispiel weisen sowohl Zwischen- wie Endprodukte Qualitäts-Fluktuationen in unterschiedlichster Schwankungsbreite auf. In der Prozessindustrie werden periodisch Proben gezogen, die sich im Labor analysieren lassen. Solche Resultate fliessen zeitverzögert in den Prozess zurück, mit dem Ziel auftretende Schwankungen der Produktqualität möglichst klein zu halten. Materialproben können nicht Schwankungen im Minuten oder Sekundenbereich detektieren und geben auch keinen Ausschluss auf die Ursachen der Schwankungen, sind aber nichtsdestotrotz notwendig. Mit vorausschauender Analytik versuchen wir Fluktuationen frühzeitig zu erkennen, um den Herstellprozess entsprechend zu steuern. Wir wollen damit Qualitätsschwankungen im Keim ersticken. Nicht nur Probenentnahmen werden reduziert oder gar hinfällig, sondern die Qualitäten schwanken sehr viel weniger.

Wie gehen bei Predictive Analytics vor?

Zuerst nehmen wir eine Liste von Parametern auf, die einen Einfluss auf den Herstellprozess haben könnten. Das sind neben den typischen Anlagenmesswerte auch Einflussfaktoren wie Materialschwankungen von Eingangsmaterialien (deren Qualitätswerte häufig vorliegen), Wettereinflüsse, die sich in Messgrössen wie Aussentemperaturen und Feuchtigkeit niederschlagen, Luftkonvektionen in den Fabrikhallen oder individuelle Maschinenführerdaten, deren Einfluss bislang nicht quantifizierbar war. Es kann also erforderlich sein, zusätzliche Messpunkte zu definieren, um einen möglichen Einfluss dieser Parameter analysieren zu können.

Und dann gehen wir über zur Analytik:
Zuerst nehmen wir die vorhandenen Daten und bereinigen diese bezüglich Ihrer Datenqualität. Dann wenden wir an diesen gefilterten Daten spezielle Visualisierungs- und Analysetechniken an. In Zusammenarbeit mit den Spezialisten in den Firmen können wir bereits in dieser ersten Phase neue Erkenntnisse über den Prozess gewinnen, schon bevor wir algorithmische Modelle anwenden.
Machine Learing Schritte: Messen, Daten bereinigen, visulalisieren, Modell erzeugen und schliesslich testen und anwenden
Abb 1. Methodisches Vorgehen bei Anwendung der Predictive Analytic (Vorausschauende Analytik)

Erst im nächsten Schritt gehen wir in die Modellierung über. Dabei wenden wir keine physikalischen, sondern in erster Linie phänomenologische Modelle an. Wir wählen also für die konkrete Aufgabenstellung einen geeigneten Algorithmus aus. Wir trainieren das Modell zu diesem Algorithmus mit einem Teil-Set der vorliegenden historischen Daten und überprüfen dann die Richtigkeit der Modelle mit mehreren anderen historischen Teil-Sets.

Dann wird das Modell im realen Umfeld erprobt. Sollte das Modell die Wirklichkeit noch ungenügend widerspiegeln werden die nötigen Massnahmen getroffen um das Modell zu verbessern. Fehlen beispielsweise Einflussparameter, werden diese neu ins Modell aufgenommen. Möglicherweise haben wir noch nicht genügend Daten gesammelt und müssen dann zurück in den Herstellprozess und zusätzliche Daten erfassen. Dabei wählen wir neue Messpunkte mit hoher Einflusswahrscheinlichkeit.

Wenn wir anschliessend beispielsweise herausfinden, dass die Feuchtigkeit einen Einfluss auf die Produktqualität hat, kann man entsprechende Gegenmassnahmen treffen, indem man die Feuchtigkeitsschwankungen versucht zu verhindern. Die Massnahme an der Quelle- immer die beste- ist aber nicht jederzeit möglich. Dann muss der Prozess aufgrund der Feuchtigkeitsmessung gesteuert werden. Das übernimmt jetzt das Modell: es hat das gesamte Wissen der Vergangenheit gespeichert und kann daraus spezifische Steuergrössen errechnen. Und mit zusätzlichen Messdaten lernt das Modell kontinuierlich hinzu. Das Modell wird über die Zeit immer besser, bzw. passt sich auch an ändernde Prozessverhältnisse an.

Fazit

Die Firma gewinnt dabei in mehrfacher Hinsicht:

  • Sie lernt Ihren eigenen Herstellprozess besser zu verstehen.
  • Sie kann damit Prozessverbesserungen ausführen, die über die Möglichkeiten der Qualitätsmethoden hinausgehen.
  • Sie kann das Modell als Steuergrösse für die Produktqualität verwenden und damit Schwankungen in der Qualität reduzieren.

Notabene: Das sind keine grossen Projekte, von denen wir hier reden. Denn die Applikationen stehen auf Abruf vollumfänglich bei LeanBI zur Verfügung und schon nach wenigen Tagen lassen sich neue Erkenntnisse erzielen.

Studie: Geschäftsmodelle in der digitalen Wirtschaft

Die Digitalisierung ist in aller Munde. Doch was ist der Status quo in der betrieblichen Praxis, wer hat die Nase vorn und wie sieht es mit dem vielbeschworenen Nutzen aus? Eine Studie der Technischen Universität München mit dem Titel „Geschäftsmodelle in der digitalen Wirtschaft“ (Nr. 13-2016) gibt Antworten auf diese und andere Fragen. Hier eine kurze Zusammenfassung der 150-Seiten-Studie.

Ziele

Im ersten Teil werden die Ziele der Studie genannt; diese sind:

  • Den Nutzen von Big Data und Cloud-Computing aufzeigen und damit Erfolgsfaktoren der digitalen Transformation aufzeigen
  • Eine Entscheidungsgrundlage für Unternehmen zum Ausbau der digitalen Themen schaffen
  • Herausforderungen bei der Umsetzung der Digitalisierung erarbeiten
  • Hilfe bei der Entscheidungsfindung staatlicher Förderinstrumente schaffen

Methodik und High-level-Ergebnis

Die Studie verwendet mehrere Methoden der Datenbeschaffung wie qualitative Befragungen, Literaturrecherche und Datenbankauswertungen von Unternehmensdaten.
Ihr zentrales Ergebnis ist:
Die Entwicklung digitalisierter Geschäftsmodelle hält unvermindert an, und wird durch die Möglichkeiten des Cloud-Computing beschleunigt. Dabei ist die Digitalisierung nicht nur im Internet zu beobachten, sondern auch in bestehenden „klassischen“ Branchen wie der Maschinenindustrie.

Der Status Quo

Der Startpunkt der Studie ist eine Ermittlung des aktuellen Standes der Digitalisierung und der neuen Geschäftsmodelle, und zwar zeitlich und im Ländervergleich. Die wesentlichen Ergebnisse sind:

  • Spitzenreiter bei der Marktkapitalisierung sind die USA (ca. 5 Mrd. €).Zum Vergleich dienen Deutschland (ca. 340 Mrd. €), Korea (ca. 300 Mrd. €) und Schweden (ca. 100 Mrd. €).
  • Schlüsseltechnologien bei der Digitalisierung sind Big Data, Analytics, Cloud-Computing und mobile Technologien.
  • KMUs sind generell eher abwartend mit einer Umsetzung vor allem im operativen Bereich wie Maschinensteuerung usw.
  • Grossunternehmen sind eher aktiv, und zwar überwiegend im Bereich der organisatorischen Veränderung, d.h. in der radikalen Veränderung der Wertschöpfung mit dem Ziel erhöhter Wettbewerbsfähigkeit und der Erschliessung neuer Märkte.
  • Mehr als zwei Drittel der Unternehmen berichten von erheblichen Umsatzsteigerungen bzw. Kosteneinsparungen im Bereich von etwa 70%.
  • Für den wirtschaftlichen Erfolg der digitalen Massnahmen ist der Reifegrad der Digitalisierung im jeweiligen Unternehmen sehr wesentlich.

Digitalisierung im Jahr 2016
Bild: Status quo der Digitalisierung („Geschäftsmodelle in der digitalen Wirtschaft“ (Nr. 13-2016))

Erfolgswirkung digitaler Geschäftsmodelle

Die Studie liefert zahlreiche Fallbeispiele für digitale Transformation im Handel, in der Medienindustrie, in Grossunternehmen und im Mittelstand. Dabei ist allen diesen Branchen gemein, dass die Digitalisierung grosse Umwälzungen mit sich bringt.
Die Autoren der Studie gehen u.a. auch den Fragen zur Veränderung der Wertschöpfungsketten nach: die wesentlichste Veränderung besteht demnach in einer rasch zunehmenden Vernetzung und Plattformbildung der betreffenden Firmen.

Realisierter Nutzen von Big Data und Analytics

Der Verbreitungsgrad der neuen Technologien nimmt in den Unternehmen stetig zu, allerdings sind auch hier die Grossunternehmen deutlich die Vorreiter. Der Nutzen von Big Data-Anwendungen wird in den meisten Unternehmen vor allem unter dem Aspekt „Kundenorientierung“ sehr hoch bewertet. Aber auch die innerbetriebliche Optimierung und die Entwicklung neuer sog. „disruptiver“ Geschäftsmodelle erzeugen merklichen Nutzen.

Social Business und Cloud Computing

Social Media können mittels ihrer Netzeffekte bestehende Geschäftsmodelle fundamental verändern. Und auch Cloud-Computing hat grossen Einfluss auf die zukünftige Bereitstellung von IT-Dienstleitungen wie SaaS, PaaS und IaaS (Software-, Product- und Infratructure-as-a-Service).

Zukunftsszenarien oder: „wo geht die Reise hin?“

Die Studie prognostiziert einerseits eine stetig wachsende Zunahme der Digitalisierung in allen Branchen und Basissektoren. Sie begründet dies mit dem Ermöglichen weiterer Kostenreduktionen und dem Erhalt der Wettbewerbsfähigkeit. Zum anderen werden die Entstehung signifikant neuer Wertschöpfungsketten, weitaus stärkerer Vernetzung (insbesondere mit dem Kunden) und vor allem eine Zunahme der datenbasierten Dienstleitungen vorausgesagt.
Ein zentraler Treiber der Digitalisierung dürfte die markante Verbesserung des Zugangs zum Endkunden sein. Sie erlaubt es, noch genauer auf seine Bedürfnisse reagieren zu können. Dies gilt nicht nur für KMUs, sondern z.B. durchaus auch für das Gesundheitssystem und für Grossunternehmen – bei denen allerdings die Gefahr besteht, dass sich sog. „Intermediäre“ mit ihren Dienstleistungen zwischen sie und den Kunden schieben.

Herausforderungen und Hemmnisse

Auch auf diesen Aspekt geht die Studie detailliert ein. Die wesentlichen Schwierigkeiten bei der Umsetzung auch gut fundierter Digitalisierungsvorhaben sind laut der Studie in der Reihenfolge ihrer Wichtigkeit:

  • Die Finanzierung
  • Mangelnde Umsetzungsfähigkeiten
  • Die aktive Unterstützung des Managements
  • Mangelnde Gesetzgebung
  • Bewahrung der Privatsphäre

Nur eine Vielzahl gezielt und koordiniert eingesetzter Massnahmen ist nach Meinung der Autoren geeignet, ein für die fortschreitende Digitalisierung geeignetes Umfeld zu schaffen. Denn es handelt sich also in nahezu allen Fällen um ausgewachsene Changeprojekte. Zudem weitere Aspekte wie gesetzliche Rahmenbedingungen, Förderinstrumente- und Massnahmen, Bildung, Standardisierung und gesellschaftliche Fragestellungen diskutiert.

Fazit

Die sehr umfassende Studie liefert zu sehr vielen Aspekten der Digitalisierung detaillierte und gut mit Zahlen und Einschätzungen der Autoren begründete Aussagen. Ausgehend vom Status quo entwirft sie ein mögliches, durchaus plausibles Bild der kommenden 10 – 20 Jahre, und leistet so eine wertvolle Orientierung für alle Unternehmen, die am oder schon im Tor der Digitalisierung stehen.

Big Data zur Rettung der Wasserwerke?

An dem Beispiel der USA wird klar, dass man sich hohe Infrastruktur-Investitionen durch IoT und Big-Data sparen kann, sogar in eine Landschaft von sehr kleinen und zerstreuten Wasserwerken. Ein Beispiel, aus dem man sicher in der Schweiz viel herausholen könnte.

Die Wasserleitungssysteme der USA sind stark ins Alter gekommen und sanierungsbedürftig. Big Data weist nun einen Weg aus der Misere.

Im Untergrund der mächtigsten Nation der Welt schwelt ein Problem vor sich hin, dass nur ab und an mit seinen schrecklichen Symptomen an das Licht der Öffentlichkeit gelangt. Die Wasserleitungsinfrastruktur der USA ist mittlerweile so marode geworden, dass Kinder in Flint (MI) Bleivergiftungen erhielten. Während man hierzulande in aller Selbstverständlichkeit Trinkwasser direkt vom Hahn geniessen kann, schwebt man beim selben Konsumverhalten in den USA in Lebensgefahr. Ein unwürdiger Zustand für das Land der Freien, zumal das Problem offensichtlich mit einer Gesamtrenovierung der Infrastruktur zu beheben wäre. Doch dies gestaltet sich durch mehrere Faktoren erheblich schwieriger, als dass es den Anschein hätte.

The Hoover Dam Photo by Janitors (Flickr) under the CC license.

Im Untergrund der USA ist laut der American Water Works Association (AWWA) schon lange nichts mehr geschehen. Der Grossteil der Trinkwasserinfrastruktur sei vor mehr als 50 Jahren während des demographischen und wirtschaftlichen Aufschwungs in der Nachkriegszeit gebaut worden. In vielen Grossstädten gäbe es gar Altstadtquartiere, deren Wasserleitungen mittlerweile über 100 Jahre alt sind, führt die AWWA in ihrem Bericht «Buried No Longer: Confrontating America’s Water Infrastructure Challenge» aus.

Das Greisenalter dieser Wasserinfrastruktur führt einen ganzen Rattenschwanz von Problemen nach sich. In einigen Städten versickert 30-40% des Wassers aufgrund von undichten Stellen im Leitungssystem, von Rohrbrüchen oder es fliesst durch fehlerhafte Wasserzähler, die es nicht registrieren. Die AWWA schätzt, dass etwa ein Sechstel (oder 7,5 Milliarden Liter) des aufbereiteten Wassers den Endnutzer nie erreicht.

Für grossangelegte Sanierungsprojekte ist kein Geld vorhanden

Dadurch entgehen den Wasserwerken Einkünfte, die sie dringend benötigten, um in die marode Infrastruktur zu investieren. Und hier liegt das zweite grosse Problem begraben, um die Missstände beseitigen zu können: Das Austauschen und Erneuern der amerikanischen Wasserinfrastruktur ist durch den ubiquitär schlechten Zustand mittlerweile zu einem Unterfangen gewaltigen Ausmasses geworden, für welches derzeit kaum Gelder vorhanden sind. Die AWWA schätzt die Renovierungskosten auf mehr als 330’000 USD pro Kilometer, in einigen Regionen wie der Bay Area werden die Kosten aufgrund der Bebauung und der topografischen Lage auf das Doppelte geschätzt. Aber da den Wasserwerken durch den oben beschriebenen Wasserverlust viel Umsatz verloren geht, sind sie oft zu knapp bei Kasse, um in die Renovation der Wasserinfrastruktur investieren zu können. Viele Wasserwerke sind zudem mit Leihschulden geplagt, warum die spärlichen Erträge in erster Linie dafür konzipiert sind, die Aufbereitung und Distribution des Wassers zu decken und die Schulden abzubauen. Für Grossprojekte bleibt da am Ende nicht mehr viel übrig.

Die Rettung liegt in Big Data und dem Internet of Things

Big Data und das sogenannte Internet of Things (IoT) dringt dank visionären Firmen allmählich in den Energiesektor ein und versorgt dort Ingenieure, Manager, private Hausbesitzer, öffentliche Einrichtungen und viele mehr mit detaillierten Informationen zu ihrem Stromverbrauch sowie mit Tipps zum Stromsparen. Dieselbe Technologie könnte zum Einsatz kommen, um potenzielle Lecks und defekte Wasserzähler im riesigen Leitungssystems aufzuspüren und zu katalogisieren. Dank sogenannten «Smart Readers» wären die Wasserwerke zudem in der Lage, Diskrepanzen zwischen dem gepumpten Wasser und den Wasserrechnungen aufzuspüren. Gerade grössere Städte könnten diese Technologien benutzen, um des Problems Herr zu werden.

Aber genau darin liegt der Hund begraben. Die meisten Wasserwerke sind sehr klein. Die EPA zählt 52’000 Wasserwerke in den USA. Nur ein kleiner Bruchteil davon – etwa 8% – versorgt 82% der Gesamtbevölkerung. Diese starke Fragmentierung des Wassersektors trägt ihren Teil dazu bei, dass schnelle Lösungen nicht umsetzbar sind. Nur etwa 300 Werke haben mehr als 30’000 Kunden, womit sie es sich leisten könnten, in diese neue Technologie zu investieren.

Auch die Kleinen können profitieren

Doch nun ist auch für die KMU im Wasserversorgungssektor eine Lösung in Sicht. Ein Start-Up hat eine Cloud-basierte Softwareplattform für Wasserwerke konzipiert, die es nun als Service an die kleineren Werke vertreibt. Damit erhält jedes Wasserwerk eine an seiner Grösse angepasste Lösung. Wer sich die teure Technologie On Premise nicht leisten kann, der abonniert ein Serviceprogramm, um fehlerhafte Zähler und Lecks in den Leitungen aufzuspüren und zu ersetzen. Denn mit der Software muss man die Leitungen nicht mehr freilegen, um das Problem zu inspizieren, was massiv Kosten spart.

Ein Beispiel dafür, wie das Problem gelöst werden kann, ist die Kleinstadt South Bend (IN). Der Ort stand unter massivem Druck, um die Richtlinien der Wasserversorgung vonseiten des Bundes zu erfüllen. Da die Stadt kein Budget hatte, um die vorhandene Infrastruktur auszubauen, musste sie eine Lösung suchen, wie sie diese effizienter nutzen konnte. Sie begann im Jahr 2012 damit, Big Data zu nutzen, um die Abflussüberschwemmungen einzudämmen. Dafür baute sie 100 von Sensoren an neuralgischen Stellen ein, um die notwendigen Daten erheben zu können. Das Resultat spricht für sich: South Bend hat mittlerweile über 100 Millionen USD gespart, indem es keine Investition in die Vergrösserung der Infrastruktur tätigen musste und weitere 60 Millionen durch ausgebliebene Bussen, weil sie die Wasserverschmutzung der Flüsse eindämmen konnte.

Der Schwesternstaat Schweiz darf sich ruhig eine Scheibe abschneiden

Big Data und IoT sind also in der Lage, das Problem der Wasserversorgung in den USA zu lösen. In der Schweiz stellen marode Wasserleitungen zum Glück kein Problem dar. Dennoch ist auch hier aufgrund des föderativen Systems der Wasserversorgungssektor stark fragmentiert, so dass fast jede Gemeinde ein eigenes Wasserwerk hat. So liessen sich nach dem Beispiel von South Bend gerade in stark expandierenden Gemeinden auch in der Schweiz Kosten sparen, indem man die heutigen Möglichkeiten von Big Data ausschöpfen würde. Und mit der Software-as-a-Service Lösung oder gar einer gemeinsamen, bundesweiten Plattform für alle Wasserwerke der Schweiz wäre dies auch für die kleinen Gemeinden erschwinglich. Auf diese Weise liessen sich die Probleme der Vergangenheit mit den Lösungen der Zukunft beheben.

Agile Prinzipien im Projektmanagement bei LeanBI

Wie ein guter Schuh sollte es sein, das Projektmanagement: so wirkungsvoll und unauffällig, dass man am besten gar nichts davon merkt. Das ist unser Bestreben – sowohl bei Kundenprojekten als auch intern. Und diese Projekte sind oft agil.

Bei LeanBI übernehmen wir in der Mehrzahl der Kundenprojekte neben den fachlichen Aufgaben auch Beratungsaufgaben in Sachen Projektmanagement, und tragen so entscheidend zum Projekterfolg bei.
Dafür haben wir ein eigenes massgeschneidertes agiles Projektmanagement entwickelt. Es integriert agile Prinzipien und „klassisches“ Projektmanagement, und es ist unbürokratisch „schlank“ – eben lean – und sehr einfach anzuwenden. So berücksichtigt es den meist agilen Charakter von Business Intelligence-, Big Data- und Industrie 4.0-Projekten.

Doch zunächst eine Antwort auf die Frage: „Was ist an Business Intelligence-, Big Data- und Industrie 4.0-Projekten agil?“:
Viele Kunden haben zu Projektbeginn noch keine klare Vorstellung, wo die Reise hingehen soll, denn oft sind entweder die Möglichkeiten der Digitalisierung wenig bekannt oder es liegen zumindest keine eigenen Erfahrungen damit vor.
Daher kann der angestrebte Endzustand, also das Projektziel, bei Projektbeginn häufig nur in Umrissen beschrieben werden; wohl wissend, dass bei Vorliegen erster Umsetzungsergebnisse vielleicht umgesteuert werden muss. Da ist es von Vorteil, die jeweilige Projektdauer eher kurz zu wählen (z.B. 2 Monate) und statt dessen eine Roadmap in Form einer Projektkette zu konzipieren. So kann ein grosses Ziel in mehreren Schritten (Projekten) erreicht werden, und es müssen nicht alle diese Projekte schon zu Beginn durchgeplant werden.
In Situationen wie diesen sind die agilen Prinzipien eine grosse Hilfe.

Tab. 1 stellt die wesentlichen agilen Methoden (links) den oft als „klassisch“ bezeichneten Methoden (rechts) gegenüber.
Die agilen Prinzipien besagen dabei jedoch keineswegs, dass die Methoden der rechten Spalte ihre Berechtigung verloren hätten. Sondern vielmehr, dass in der direkten situativen Abwägung im Projekt den Methoden in der linken Spalte der Vorrang gegenüber denen in der rechten Spalte eingeräumt werden sollte („>“).

agilePrinzipien_tab1

Was heisst das nun in der praktischen Anwendung im Projekt (s. Tab. 2)?

agilePrinzipien_tab2

Im Folgenden werden die vier agilen Prinzipien etwas detaillierter beschrieben:

Zusammenarbeit mit dem Kunden:

In vielen Projekten wird immer noch um die eigene Firma ein Zaun gezogen nach dem Motto „Wir sind hier drinnen, und alle anderen – auch der Kunde – sind draussen“. Und der Kunde tut oft das gleiche.
Dabei können verschiedene Gründe eine Rolle spielen:

  • Man möchte keine Firmeninterna preisgeben oder der Kunde möchte das nicht; hier kann z.B. ein NDA helfen, die Barrieren zu überwinden, also Vertrauen statt Konfrontation.
  • Betrachtungsgegenstand sind nicht stets das Big Picture und das gesamte Projekt, sondern bestimmte Teilaspekte davon. Diese werden gewissermassen herausgeschnitten und als Teilprojekte weiterverfolgt (sog. IT-Projekt, Marketing-Projekt usw.). Diese „Sollbruchstellen“ entwickeln sich im Projektverlauf oft unmerklich zu echten Bruchstellen und das Ende vom Lied ist eine heillos verworrene Gesamtsituation mit total unklaren Verantwortungen.
  • Die ausführende Firma wird vom Projektauftraggeber als „Lieferant“ betrachtet, und nicht als Partner in einem gemeinsamen Vorhaben. Die Konsequenzen sind häufig eine gestörte oder sogar bewusst eingeschränkte Kommunikation und vielfältige Missverständnisse.

Der aktive Einbezug des Kunden – in der Regel ist er ja der Projektauftraggeber – in die Projektorganisation hilft, viele der genannten Gefahren zu verringern oder sogar ganz auszuschliessen.

Funktionierende Produkte:
Hier geht es darum, in überschaubaren und planbaren Zeitabschnitten Resultate zu erzielen, die vom Auftraggeber bewertet werden können (und sollten). Zum einen bindet es diesen aktiv in das Projektgeschehen mit ein und zum anderen wird so laufend überprüft, ob sich das Projekt noch auf dem richtigen Kurs befindet.

Reagieren auf Veränderung:
Anfänglich nur in Umrissen beschriebene Ziele ziehen beinahe zwangsläufig auch Änderungen für Kosten, Zeitabschätzungen, Risiken, Zusammensetzung des Projektteams usw. nach sich.
Dieses agile Prinzip betrachtet solche Änderungen nicht als unerwünschte Störung in einem vorgeplanten starren Ablauf, sondern als dynamische Anpassung an eine sich ebenso dynamisch verändernde Projektumgebung. Damit das Produkt am Ende die daran geknüpften Erwartungen erfüllt.

Individuen und Interaktionen:
Das vierte agile Prinzip betont den Vorrang der echten Team-Zusammenarbeit gegenüber der reinen Planbefolgung. Es ist ein wenig wie beim Segeln: man braucht zwar eine ausreichend genaue Seekarte mit einem eingezeichneten Kurs. Aber zur erfolgreichen Bewältigung der zwangsläufig auftretenden Kursabweichungen wird das konstruktive Zusammenspiel der unterschiedlichen Kenntnisse und Erfahrungen aller Besatzungsmitglieder benötigt. Ein sich Zurückziehen auf das eigene Ressort kann das gesamte Vorhaben zum Scheitern bringen.

Der PM-Prozess:
Der eigentliche PM-Prozess, der bei LeanBI auf Business Intelligence-, Big Data- und Industrie 4.0-Projekte und auch auf alle übrigen internen und externen Projekte angewendet wird, folgt im Wesentlichen dem IPMA-Ansatz). Er beschreibt sämtliche PM-Aktivitäten eines Projekts und besteht aus vier zwingend aufeinanderfolgenden Prozessschritten (blaue Blockpfeile in Fig. 1):

  1. 1. Initiierung
  2. 2. Planung
  3. 3. Steuerung
  4. 4. Abschluss

agilePrinzipien_fig1

Die inhaltlichen Tätigkeiten, welche die eigentliche Wertschöpfung in den grau markierten Blockpfeilen darstellen, finden überwiegend zeitlich parallel zu Schritt 3 (Steuerung) statt. Diese Aktivitäten werden als Arbeitspakete für jedes Projekt individuell in einem separaten PM-Dokument, nämlich dem Projektstrukturplan (PSP) zusammengefasst. Üblicherweise ist dieser PSP durch Projektphasen strukturiert, die jeweils Gruppen sinngemäss zusammengehörender Arbeitspakete umfassen.
Ausserdem ist in Fig. 1 dargestellt, welche Projektbeteiligte im jeweiligen Prozessschritt zwingend aktiv sein müssen: während der Initiierung sind das mindestens der Projektauftraggeber und der Projektleiter, in den folgenden drei Schritten kommen noch die Projektkernteam-Mitglieder hinzu.

Welche PM-Tätigkeiten die vier Prozessschritte im Einzelnen enthalten und wie ein PSP für ein typisches Digitalisierungsprojekt aussehen kann, wird in einem der nächsten Blogs beschrieben.

Wie entsteht ein neues Geschäftsmodell durch Digitalisierung?

Wenn es um den Nutzen der Digitalisierung geht, taucht meist der Begriff der „neuen Geschäftsmodelle“ auf. Doch wie (er)findet man diese, was muss für ihre Realisierung getan werden und was bedeutet ihre Umsetzung für das Unternehmen? Der Versuch einer Antwort auf diese Fragen:

In den 90er Jahren sprach man noch von «Elektronischer Daten-Verarbeitung» (EDV), ein klarer Hinweis darauf, dass es mit Daten alleine nicht getan ist. Vielmehr muss eine Art Prozesskette durchlaufen werden (s. Fig. 1), bevor man von Nutzen und von «neuen Geschäftsmodellen» sprechen kann.

Durch Digitalisierung etstehende (Roh-)Daten sind an sich wertlos, erst durch ihre Sortierung, Strukturierung und schliesslich Analyse entsteht in einem ersten Verarbeitungsschritt Information als höherwertige zweite Stufe. Doch auch Information nützt nur demjenigen etwas, der sie versteht und sie dadurch in einen bestehenden und möglichst gut verstandenen geschäftlichen oder anderen Kontext stellen kann. Zudem sollte man in der Lage sein, Massnahmen zu bestimmen, deren Umsetzung schliesslich den angestrebten Nutzen ermöglicht. Für diesen letzten Schritt braucht es grosse fachliche Erfahrung, um das gewonnene Wissen möglichst effizient und effektiv in diesen Nutzen umzusetzen. Dies gilt insbesondere für die Anwenderseite, also dort, wo der Nutzen entstehen soll. In vielen Fällen werden zusätzlich solide Projektmanagement-Kenntnisse benötigt, denn neue Geschäftsmodelle greifen oft massiv in bestehende Geschäftsmodelle ein. Daher ist deren Umsetzung in Projektform oder als eigentliches Change-Projekt fast immer der beste Weg.

Prozessschritte zu einem neuen Geschäftsmodell
Fig 1: Die Prozesskette

CyberKnife® – Beispiel für ein neues Geschäftsmodell

Am Beispiel des CyberKnife ® (Fig. 2), einem in den 90er Jahren in den USA entwickelten Roboter-gestützten Strahlentherapie-System zur Tumorbekämpfung, sollen diese Prozessschritte verdeutlicht werden. Dazu muss man wissen, wie das CyberKnife ® ungefähr funktioniert:

Als Behandlungsbasis wird zunächst ein Computer-Tomogramm (CT) vom Tumorpatienten aufgenommen. Während der eigentlichen Therapiesitzungen werden in kurzen Zeitabständen Stereo-Röntgenaufnahmen erzeugt, aus deren Vergleich mit dem CT die aktuelle Tumorposition im Patienten ermittelt wird. Diese genaue Ortsinformation überträgt das System unmittelbar an den Roboter, der seinerseits den Linearbeschleuniger, d.h. die Strahlenquelle, trägt und positioniert. Auf diese Weise wird sichergestellt, dass die Therapiestrahlung in Echtzeit und äusserst präzise tatsächlich auf den Tumor gerichtet ist (und nicht etwa auf gesundes Gewebe) und diesem bei Atembewegungen des Patienten sogar in Echtzeit folgt.

CyberKnife, ein neues Geschäftsmodell
Fig. 2: CyberKnife ®

Sieht man sich dieses Beispiel vor dem Thema «neue Geschäftsmodelle» etwas genauer an, erkennt man folgende vier Punkte:

  • Das neu geschaffene CyberKnife ®- Geschäftsmodell könnte man beschreiben mit:
    «Diese Präzisionsbestrahlung stellt eine neuartige Heilungschance dar. Kliniken können daher mit der Installation eines CyberKnife ®-Zentrums im hart umkämpften Strahlentherapiemarkt ein zusätzliches und sehr attraktives Geschäftsfeld generieren».
  • Die gedankliche Entwicklung dieses Geschäftsmodelles startete keinesfalls mit der Datenerhebung (CT usw.), sondern mit den bislang unbefriedigenden Bestrahlungsergebnissen bestimmter Tumore durch konventionelle Bestrahlung, d.h. bei einem angestrebten neuen Nutzen.
  • Die gute Zusammenarbeit unterschiedlicher Fachdisziplinen war für die Umsetzung der gesamten Prozesskette absolut zentral, und diese war in Projektform am besten sicher zu stellen.
  • Es gab (und gibt) Gegner der neuen Therapiemethode; der gezielte und geplante Umgang mit diesen Widrigkeiten war für das neue Geschäftsmodell daher ebenfalls erfolgsentscheidend.
  • Im iterativen Kreislauf zu einem neuen Geschäftsmodell

    Fig. 3 verdeutlicht diese Erkenntnisse, im Kreislauf zunächst in der unteren Hälfte von rechts nach links schreitend:
    Beginnend bei einer bestehenden «Not» (kaum Heilerfolge) bzw. einem angestrebten Nutzen (Heilung) sinnt der Fachspezialist, in diesem Fall der Strahlentherapeut, mit seinem medizinischen Wissen darüber nach, wie man zur Real-Time-Tumorposition kommen könnte. Ist diese einmal genau bekannt, kann der Medizinphysiker , ein weiterer Fachspezialist, die Massnahmen zu einer erfolgreicheren Therapie treffen und einen geeigneten Bestrahlungsplan erstellen. Um die Tumorposition wiederum möglichst genau und in Echtzeit zu erkennen, werden eine grosse Anzahl von Daten (CT und Hunderte von Röntgen-Stereobildern) sowie fundierte Kenntnisse in der Bildverarbeitung und der Datenanalyse benötigt. Dies ist Aufgabe der Bildverarbeitungsspezialisten.

    Ist nach dem ersten «umgekehrten» Durchschreiten der unteren Prozesskette klar, welche Daten erforderlich sind, kann die 2. Hälfte des Kreislaufes in Angriff genommen werden (obere Prozesskette):
    1. Speicherung, Verarbeitung und Analyse der Daten (-> Information: Tumorposition)
    2. Die notwendigen Massnahmen definieren (-> Wissen: Bestrahlungsplan)
    3. Diese Massnahmen umsetzen (-> Nutzen: Therapie durchführen)
    In der Praxis hat es sich bewährt, neue durch Digitalisierung entstehende Geschäftsmodelle zunächst in abgegrenzten Unternehmensbereichen auszuprobieren und sie erst dann Schritt für Schritt zu verbessern. Dieses zyklische und iterative Vorgehen ist in Fig. 3 ebenfalls mit dargestellt.

    Prozesschritte zu einem neuen Geschäftsmodell, ein geschlossener Kreislauf
    Fig. 3: Ein geschlossener Kreislauf

    Methodik neuer Geschäftsmodelle

    Die mit dem CyberKnife ®-Beispiel gewonnenen Erkenntnisse lassen sich verallgemeinern und führen so zur Beantwortung der oben genannten drei wesentlichen Fragen (s. auch Fig. 4):

    Frage 1: Wie (er)findet man durch Digitalisierung entstehende neue Geschäftsmodelle?
    Antwort: Es muss einen Bedarf geben. Der Nutzen muss also im Vordergrund stehen und nicht die blosse Machbarkeit. Erst aus dem Nutzen entstehen dann die neuen Geschäftsmodelle. Dabei setzt die richtige und sorgfältige Beurteilung des eigenen Geschäftsumfeldes profunde Kenntnisse im jeweiligen Business voraus., Von hier – also meist von der Unternehmensführung – müssen auch die Überlegungen und insbesondere die Initiativen für die Schaffung neuer Geschäftsmodelle ausgehen.

    Frage 2: Was muss für deren Realisierung getan werden?
    Antwort: Stellen Sie als Unternehmensleitung, beginnend mit dem erkannten Bedarf und mit Ihren Geschäftskenntnissen, gemeinsam mit dem Senior Management einen (Projekt-)Plan auf, und sorgen Sie dann dafür, dass dieser zusammen mit allen erforderlichen Fachspezialisten umgesetzt wird. Dies bedeutet in der Regel auch eine Umstellung vieler Prozesse oder auch der Organisation selbst, und es wird auch klar, welche Daten Sie benötigen – und welche nicht. (s. Fig. 4)
    Und: vergessen Sie Ihre Widersacher nicht.

    Prozesschritte zu einem neuen Geschäftsmodell, das veralgemeinerte Vorgehen
    Fig 4.: Die allgemeine Vorgehensmethodik

    Frage 3: Was bedeutet die Umsetzung für das Unternehmen?
    Antwort: Die Implementierung neuer Geschäftsmodelle kann innerhalb der Unternehmen vieles drastisch verändern. So kann der Vertrieb (nahezu) überflüssig werden, es wird kein eigenes Lager mehr benötigt oder die Serviceabteilung muss stark ausgebaut werden. Diese innerbetrieblichen Veränderungen induzieren häufig ungeahnten und heftigen Widerstand, dem mit Massnahmen des Changemanagement begegnet werden sollte. Auch nach aussen, also zum Kunden hin, gibt es häufig grosse Umwälzungen: Ihre Kunden sind plötzlich die Endkunden (und nicht mehr die Zwischenhändler), das Unternehmen wird überwiegend über seinen Service wahrgenommen (und nicht mehr über seine Produkte) oder Ihr Kundenstamm ist auf einmal global (und nicht mehr regional). Und auch diese externen Veränderungen sollten im Projektplan unbedingt adressiert und mit unterstützenden Massnahmen abgesichert werden.

    Fazit

    Die Schaffung neuer durch Digitalisierung entstehende Geschäftsmodelle ist zähe, harte Arbeit und keinesfalls so „disruptiv“ wie es oft dargestellt wird. Da fällt „nicht etwas vom Himmel“. Diese Geschäftsmodelle sollten in der Unternehmensführung aus gründlichem Durchdenken des jeweiligen Geschäftsumfeldes entstehen. Und sie bedingen – allein schon aus Akzeptanzgründen – die intensive Zusammenarbeit von Fachdisziplinen wie IT, Business Development, Vertrieb usw.. Diese Zusammenarbeit kann fast immer am besten durch Projektarbeit erreicht werden. Auch ein gutes Projekt- und Changemanagement sind daher unabdingbare Erfolgsvoraussetzungen. Das verbreitete Um-sich-werfen mit Schlagworten wie „digitale Plattform“ oder „disruptives Geschäftsmodell“ zeigt dagegen eigentlich nichts ausser Ratlosigkeit.

Event zum Thema „Big Data in Industrial Services and Game Changing Business Models“

Neue Phänomene wie das Internet of Things oder Smart Factories haben zu bahnbrechenden Veränderungen in der Industriebranche geführt. Für viele Unternehmen sind diese Veränderungen bereits spürbar oder gar Tatsache. Daten scheinen hierbei im Zentrum der Entwicklung zu stehen. Doch mit den sich rasant weiterentwickelnden Technologien muss auch der Mensch Schritt halten können. Es stellt sich die Frage, wie wir mit den generierten Daten umgehen sollen. Oder genauer gefragt: Sollen wir unsere Daten schützen oder ist es sinvoller, sie mit anderen zu teilen?

Diese Frage greift nun die Swiss Alliance for Data-Intensive Services in einem Event „Big Data in Industrial Services and Game Changing Business Models: Should Data Be Protected or Shared?“ auf, den sie am 15. Juni 2016 im CLOUD veranstalten werden. Unter den Vortragenden wird Prof. Dr. Taija Turunen von der Aalto Universität in Helsinki sein, die anhand von sechs Start-Ups neue, revolutionäre Geschäftsmodelle präsentieren wird, die auf Informationsaustausch und Zusammenarbeit beruhen. Ergänzen wird das Panel Tuomo Varila, der CEO von Analytics Cloud Ltd., der ebenfalls aus Helsinki stammt. Er wird sein neues Start-Up vorstellen und unter anderem aufzeigen, wie man aus Daten einen unternehmerischen Nutzen erzeugen kann. Zwischen den Panels wird es für die Teilnehmenden immer wieder die Möglichkeit geben, über die präsentierten Themen zu diskutieren. Schliesslich kann man sich bei einem Apéro besser kennenlernen und und sich untereinander über partikuläre Interessen austauschen.

Wir von LeanBi werden ebenfalls vor Ort sein und freuen uns bereits auf spannende Diskussionen und einen anregenden Austausch mit anderen Interessierten. Falls Sie erst jetzt auf dieses Event aufmerksam wurden, können Sie sich noch unter folgender Adresse anmelden: Big Data in Industrial Services and Game Changing Business Models

Treiberbasierte Planung: Die Kunst der Modellierung

In letzter Zeit durften wir für internationale Unternehmen Business Intelligence Projekte mit „Treiberbasierter Planung“ umsetzen. Wir möchten dazu gerne über unsere Erfahrungen berichten. Besonders zur Bewältigung der Mittelfristplanung erfahren die Methoden der treiberbasierten Planung einer immer grösseren Beliebtheit. Denn über diese Methoden beschäftigt sich die Unternehmung intensiv mit den äusseren und inneren Einflussfaktoren auf die zu planenden Kennzahlen, nicht nur auf die Finanzkennzahlen. Es findet damit eine Wechselwirkung zwischen strategischer Planung und der operativen Unternehmensplanung statt.

In der „Treiberbasierten Planung“ werden die ursächlichen Treiber für ein erfolgreiches Geschäft definiert, was die Planung transparenter und genauer macht. In der Praxis haben sich zur Abbildung von Treibermodellen häufig Treiberbäume durchgesetzt. Anhand der folgenden Treiberbäume wollen wir das Prinzip der treiberbasierten Planung etwas verdeutlichen. Es soll Ihnen ein Gefühl vermitteln, wie Treiberbäume erstellt werden. Als Fallbeispiel nehmen wir das der LeanBI AG vertraute Projektgeschäft als Grundlage. Als Zielkennzahl soll der Gewinn aufgrund verschiedener Planwerte ermittelt werden. Wir gehen also bei den ausgeführten Beispielen davon aus, dass der Gewinn eine auf Treiber basierend stufenweise berechnete Kennzahl ist.

Wie kann nun das Projektgeschäft in einem Modell gefasst werden? Der Erfolg des Projektgeschäfts wird in erster Linie aus der Auslastung der Mitarbeiter bestimmt, ähnlich wie im Flugverkehr die Auslastung der Flugzeuge ein stark bestimmender Faktor ist. Damit wird in einer ersten Näherung die wichtigste Wirkung auf den Gewinn durch Treiber „Anzahl Kunden“ und „Anzahl Mitarbeiter“ beschrieben. Die Kunden liefern über ihre Projekte die verrechneten Auslastungsstunden der Mitarbeiter. Als Vereinfachung gehen wir davon aus, dass alle Kosten neben der Lohnkosten in ein Gefäss „Gemeinkosten“ untergebracht sind. Weiter gehen wir davon aus, dass die Anzahl der Mitarbeiter nicht flexibel erhöht und gesenkt werden kann. Dieses ziemlich unelastische Verhalten ist in der Schweiz eine realistische Annahme, denn die Mitarbeiterplanung ist ein strategischer Faktor in der Unternehmensplanung eines Projektanbieters. Es ist damit nachvollziehbar, dass die Kennzahl „Anzahl Mitarbeiter“ zu einer durch den Planer zu planenden Grösse, also Treiber definiert werden kann. Weiter gilt: Die LeanBI bietet agile Projekte an, das bedeutet, dass die Projektgrössen in Zusammenarbeit mit dem Kunden in überschaubare, in etwa gleichbleibenden Einheiten aufteilbar sind. Die Anzahl Projekttage pro Projekt nehmen wir als Vorgabegrösse an, sodass der Planer noch die durchschnittliche Anzahl der Projekte pro Kunde zu planen hat. Diese Planung erfolgt aufgrund einer konkreten sowie potentiellen zukünftigen Kundenbasis.

Treiberbasierte Planung, ein Modell mit zwei Treiberstränge und einem Kennzahlenziel
Abbildung Treiberbaum Fallbeispiel 1: Zwei Treiberstränge mit einem Kennzahlenziel

Der Planer hat nun die Aufgabe an verschiedenen Stellschrauben so zu drehen, dass ein realistischer Budgetplan für 2017 entsteht. Kern der „Treiberbasierten Planung“ ist, dass die Treiber sehr viel einfacher zu planen sind, als die daraus berechneten Kennzahlen. Die „Anzahl der Mitarbeiter“ ist in einem realistischen Rahmen zu planen, sodass die berechnete Grösse „Anzahl Projekttage“ ausgehend von der Kundensicht wie auch von der Mitarbeitersicht übereinstimmen. Insgeheim führt hier der Planer einen iterativen Prozess beider Sichten durch. Und so wird die Gewinnermittlung im vorliegenden Fall zu einer rein linearen Abbildung zweier eigentlich in Wechselwirkung stehender Treiberkennzahlen. Anders ausgedrückt: Die vorliegende Modellierung hat sich um eine iterative wechselwirkende Funktion zweier Treiber durch Vereinfachung herumgeschlichen.

Externe Mittarbeiter in das treiberbasierte Modell einbeziehen

Das zweite Fallbeispiel geht von etwas anderen Bedingungen aus. Hier ist die durchschnittliche Anzahl der Projekttage keine feste Grösse, sondern sie wird auch durch den Planer bestellt. Dafür sind die Anzahl Mitarbeiter eine berechnete Kennzahl aufgrund der kundenseitigen Planvorgaben. Bei diesem Fallbeispiel gehen wir davon aus, dass die Anzahl Mitarbeiter durch Aufstockung von externen Mitarbeitern gehandhabt werden kann. Die Aufstockung geschieht durch die planerische Vorgabe der Mitarbeiterauslastung. Auch bleibt die Anzahl der internen Mitarbeiter weitgehend konstant, sodass der Lohn der internen Mitarbeiter keine Plangrösse, sondern zu einer Vorgabe wird. Die externen Mitarbeiter haben im Allgemeinen höhere Lohnkosten, wodurch die Gewinnmarge in Mitleidenschaft gezogen wird. Dafür kann in diesem Beispiel flexibler auf Schwankungen im Projektgeschäft reagiert werden.

Treiberbasierte Planung, ein Modell mit integrierten linearen Strängen
Abbildung Treiberbaum Fallbeispiel 2: Integration der linearen Stränge

Vergleicht man nun Fallbeispiel 1 mit Fallbeispiel 2 so fällt auf, dass beide Beispiele sehr wohl realitätsnah sind, beide Modelle sich dennoch aufgrund von unterschiedlichen Verhältnissen recht stark unterscheiden. Im Fallbeispiel 2 existiert auch kein iterativer Vorgang wie im Fallbeispiel 1.

Eines haben beide Modelle gemeinsam. Beide geben die Wirklichkeit nur grob, möglicherweise sogar ungenügend wieder. Auch fällt auf, dass bei diesen sehr einfachen Beispielen schon einige Entscheide gefällt werden müssen, welche Kennzahlen fest zu halten, welche als Wirkung und welche als Ursache gelten. Man versteht deshalb auch gut, dass „Treiberbasierte Modelle“ gut durchdacht sein sollten. Dies leuchtet insbesondere beim Betrachten des 3. Fallbeispiels ein.

Verfeinerte treiberbasierte Planung

Gehen wir noch einen Schritt weiter in der treiberbasierten Modellierung. Denn die Wirklichkeit ist in Tat und Wahrheit meistens rekursiv, sie verläuft in Schleifen. Treibermodelle können häufig rekursive Schleifen aufweisen, die in der Umsetzung jedoch nicht einfach zu handhaben sind. Die „Anzahl Kunden“ ist in Realität tatsächlich keine Plangrösse, sondern definiert sich über verschiedene zusätzlich zu definierende Treiber. Ein Treiber ist das Engagement in das Marketing zur Erhöhung der Marktvisibilität der von der Firma angebotenen Produkte, was sich direkt in den „Marketingkosten“ niederschlägt. Andere Treiber sind sicher die zeitabhängigen ökonomischen Verhältnisse. Der Industrie in der Schweiz geht es bekanntlich seit der Frankenstärke nicht mehr ganz so gut. Ein weiterer sehr wichtiger Treiber der „Anzahl Kunden“ bzw. „Anzahl Projekte“ bestimmt sich direkt durch die Skills der eigenen Mitarbeiter. Denn die Mitarbeiter sind direkt für den Projekterfolg zuständig und beeinflussen immer auch indirekt die zukünftigen Kundenprojekte. Damit bestimmen die Skills die „Anzahl der Kunden“, die wiederum die „Anzahl der Mitarbeiter“ und damit auch die „Skills der Mitarbeiter“ bestimmen. Im letzten Treiber liegt hiermit eine rekursive Schleife vor. Dieser Sachverhalt wird im dritten Treiberbaum festgehalten.

Im Fallbeispiel 3 werden nun die Skills der Mitarbeiter und die Anzahl der internen Mitarbeiter geplant. Wie gerade ausgeführt, ist auch dieses Szenario als realistisch einzustufen, die Planungsgrundlage ist aber eine andere. Auch ist die Logik im Modell um einiges komplexer als in den vorgängigen Fallbeispielen. Denn wie die ökonomischen Verhältnisse die Anzahl unserer Kunden bestimmt, ist nicht einfach abbildbar.

Treiberbasierte Planung, ein Modell mit rekursiver Schleife
Abbildung Treiberbaum Fallbeispiel 3: Rekursive Schleifen

Welches dieser drei Modelle ist nun das Beste? Die Antwort ist einfach. Jenes, auf welchem sich am besten und genauesten zur gegebenen Zeit planen lässt. Und die Modelle können sich über die Zeit auch ändern, da sich die Bedürfnisse im Unternehmen und die deren Kunden ändern. Die Funktionstüchtigkeit muss laufend überprüft werden, sodass Anpassungen stattfinden können. Konkrete Antwort auf die Frage: Im Moment erscheint uns Fallbeispiel 2 am geeignetsten, weil es unsere Realität genügend abbildet und dennoch einfach bleibt.

Fazit:

  • Das Treibermodell bestimmt sich durch das Geschäftsmodell und ist kunden- und organisations-individuell.
  • Es muss ein gutes Verständnis des Geschäftes vorliegen, damit das Treibermodell Hand und Fuss hat.
  • Es gilt dann die Komplexität des Geschäftsmodells durch Annahmen zu vereinfachen und das Kennzahlenset zu begrenzen.
  • Die Bestimmung der nötigen Treiber in der richtigen Detailliertheit ist Key zur geeigneten Abbildung des Planungsmodells.
  • In der Praxis verändern sich die Modelle über die Zeit, weil dazugelernt wird, aber auch weil die Geschäftsmodelle sich ändern.
  • Das Planungstool muss mit komplexen Modellen mit rekursiven Schlaufen umgehen können.

Industrie 4.0: Es geht allein um ihren Nutzen

Manche Digitalisierungen werden umgesetzt, weil sie technisch möglich sind oder weil „man ja endlich auch etwas machen möchte“. Doch ein methodisches Vorgehen muss stets beim Kundennutzen beginnen – und nicht beim Machbaren.

Ca. 40 Teilnehmer erschienen am Freitagmorgen, 27. Mai, zu der von LeanBI AG organisierten Veranstaltung der Jedox-Worldtour im Hotel «Schweizerhof» in Bern.
Die inhaltlich breit aufgespannte Agenda umfasste einerseits übergeordnete Themen wie Betrachtungen zum Potential der intelligenten Analytik (K. Stockinger, ZHAW) und zum Nutzen der Digitalisierung (W. Weber, LeanBI AG). Andererseits kamen aber auch sehr operative Aspekte zur Sprache: erste Erfahrungen mit Big Data im Controlling (M. Pittino, Bell AG) und eine Demo zur Kombination von BI und Data Science (S. Pauli u. A. Lagüe-Jacques, beide LeanBI AG). Abgerundet wurde der Vormittag von J. Rieth, Jedox AG, mit einem Beitrag zum Produktionscontrolling mit Jedox.
Die Agenda war gezielt auf das ebenso weit gefächerte Auditorium zugeschnitten: anwesend waren Vertreter aus der Industrie, von Hochschulen und Beratungsunternehmen, aber auch Firmenteilnehmer aus den Fachdisziplinen Marketing und Finance.

M. Tesch, LeanBI AG eröffnete den Vormittag pünktlich um 8:58 und zeigte mit seiner kurzen und sehr prägnanten Einleitung einige aktuelle Beispiele von digitalisierten Alltagsprodukten. Besonders eindrücklich war ein kurzer Film mit dem Ausblick auf das Jahr 2028: Demzufolge sind in den kommenden 12 Jahren gewaltige gesellschaftliche und technische Änderungen zu erwarten. Die Digitalisierung wird sich diesen Veränderungen unaufhaltsam anpassen und damit unser Leben in bisher ungeahnter Weise verändern. Eine gelungene Einleitung zu den folgenden Vorträgen!
Als erster redner zeigte Kurt Stockinger von der ZHAW anhand der zwei Beispiele «Market Monitoring» und «Smart Alarms» erste nützliche Anwendungen von Industrie 4.0: wie kann Kundenverhalten vorhergesagt werden bzw. wie kann man (teure) Fehlalarme von echten Alarmsituationen unterscheiden? Sein Fazit: Die in solchen Projekten gewonnene Erfahrung sollte auf dem weiteren Weg in die digitalisierte Zukunft unbedingt genutzt werden.

Anschliessend wurde es mit dem Erfahrungsbericht von M. Pittino (Bell AG) sehr konkret: Die Bell AG setzt Jedox mit grossem Erfolg für die konzernweiten Abschluss- und Planungsprozesse ein. Basierend darauf können z.B. Berichte für das Management und den Verwaltungsrat in einem Bruchteil der bisher dafür erforderlichen Zeit erstellt werden. M. Pittino spricht in diesem Zusammenhang bescheiden von einem «realisierten Stand Industrie 2.0.», aber auch bei Bell bleibt man weiter am Ball!

Türstörungen im Bahnverkehr können sich zu einem grossen Problem auswachsen, wenn sie den Fahrplan durcheinanderbringen. Und so zeigten nach der Kaffeepause S. Pauli und A. Lagüe-Jacques (beide LeanBI AG) mit einer Schritt-für-Schritt-Analyse von echten «Türdaten» einer Bahngesellschaft, wie man zu belastbaren Vorhersagen bzgl. solcher Störungen kommen kann. Diese Vorhersagen sind für die Bahngesellschaft von grossem Nutzen, erlauben sie doch eine vorausschauende Wartung und ein aktives Risikomanagement mittels der Bereitstellung von Ersatzzügen, um die Häufigkeit ärgerlicher und vor allem imageschädigender Zugverspätungen zukünftig stark zu verringern.

Man kann zwar Vieles im Bereich der Digitalisierung umsetzten, aber wie lassen sich «Spielereien» von wirklich nützlichen Anwendungen systematisch unterscheiden? Und wie entstehen die vielbeschworenen «neuen Businessmodelle» durch Anwendungen von Industrie 4.0? W. Weber von LeanBI AG gab in seinem Beitrag mittels eines bereits 15 Jahre alten Medizintechnik-Anwendungsbeispiels zur Digitalisierung Antworten auf diese zwei Fragen: Der Ausgangspunkt zur Nutzenbestimmung muss immer die jeweilige Kunden- oder Geschäftssituation – gewissermassen eine «Not» – sein, und der methodische Weg muss dann gewissermassen rückwärts über die Zwischenschritte «Wissen» und «Information» bis hin zu den «(Roh-)Daten» beschritten werden. So lässt sich eindeutig bestimmen, welche Daten erhoben werden müssen. Und auch erst dann sollte eine erfolgsversprechende operative Umsetzung in Angriff genommen werden. Denn nur auf diese Weise werden aus der Vielfalt der grundsätzlich denkbaren neuen Geschäftsmodelle diejenigen herausgefiltert, die ein Nutzen-basiertes Fundament haben.

Die Veranstaltung wurde pünktlich um 11:57 mit einem Vortrag von J. Rieth (Jedox AG) abgeschlossen. Sein Thema war die Vereinfachung von Reporting, Planung und Analyse im industriellen Umfeld durch den Einsatz von Jedox. Zentraler Punkt ist dabei, nicht einfach nur Daten zu sammeln, also «Big Data», sondern die richtigen Daten zu sammeln, gewissermassen «Smart Data». Und bei deren Verarbeitung setzt die Firma u.a. auf die Parallelisierung von Grafikprozessoren und erreicht so eine hohe Analysegeschwindigkeit.

Fazit:
Eine sehr gelungene Veranstaltung in einem sehr schönen Ambiente. Mit vielen interessanten Diskussionen rund um’s Thema und vielversprechenden neuen Kontakten. Und der Erkenntnis: Die Digitalisierung läuft bereits und wir sind gespannt die weitere Entwicklung – zu der wir unseren Teil beitragen.

Den Link zu allen Vorträgen finden Sie unter dem folgenden Link: Die Industrie 4.0 Vortäge als pdf.

Industrie 4.0 Event im Schweizerhof

IoT-Business-Speed-Dating

Die Themen IoT und Industrie 4.0 sind auch in Schweiz in aller Munde. Doch so richtige konkrete Anwendungsfälle muss man eher mit der Lupe suchen. Eine Konferenz bringt dabei durchaus Licht ins Dunkel.

Das war richtiges „Business-Speed-Dating“: Einzelgespräche von jeweils genau 15 Minuten Dauer, teilweise in ununterbrochener Reihenfolge und über bis zu 2.5 Stunden hinweg.

Am 19. Mai 2016 war LeanBI mit drei Mitarbeitern einer der fünf Lösungsanbieter auf der „IoT-Konferenz“ im Marriott-Hotel in Zürich – von Management Events übrigens ganz vorzüglich organisiert.

Diesen fünf Anbietern standen mehr als 80 Gäste gegenüber, die mit den unterschiedlichsten Fragen und Anliegen zum Thema IoT kamen.

Das Prozedere:
Im Vorfeld der 1-tägigen Veranstaltung waren die maximal 3 x 10 Wunsch-Gesprächspartner von LeanBI nach Recherchen jeweils zur Person und zum Unternehmen aus der Gesamtliste der Teilnehmer ausgewählt und mit einem personifizierten Anschreiben zu den 15-minütigen 1-zu-1-Gesprächen eingeladen worden. Sechs Keynote-Vorträge und vier Gruppendiskussionen ergänzten diese Gespräche.

Diese waren der Kern des Programms und hatten vorrangig das Ziel, das IoT-Anliegen des jeweiligen Gegenübers zu verstehen. Die Gespräche wurden stets mit einer kurzen Vorstellung der eigenen Person und des Angebotsspektrums von LeanBI eingeleitet, dann aber war vor allem für LeanBI Eines angesagt, nämlich Zuhören! Und dies mit den drei Leitfragen:

  • Wo sehen Sie das grösste Potential von IoT in Ihrer Firma?
  • In welchem Status befinden Sie sich bzgl. dieses Themas?
  • Und in welchem Bereich könnten wir Sie bei diesem Vorhaben evtl. unterstützen?

IoT-Event Homepage organisiert von Management Events

Obwohl die Situationen im jeweiligen Unternehmen und die Anliegen der Gesprächspartner im Einzelnen recht unterschiedlich waren, kristallisierte sich doch bald ein klares Gesamtbild heraus:
fast alle Unternehmen stehen bzgl. IoT noch sehr am Anfang.
Und es ist durchaus nicht nur die meist fehlende Antwort auf die wichtige Frage, welches die vielbeschworenen neuen (individuellen) Business-Modelle sein könnten, welche die Firmen unruhig macht.
In mindestens der Hälfte der Gespräche wurde auch deutlich, dass im Rahmen der zunehmenden Digitalisierung insbesondere die betreffende Unternehmenskultur ein zentrales und absolut erfolgsentscheidendes Betrachtungselement sein würde:
Als Haupthindernisse wurden dabei „weiche“ Faktoren wie u.a. Frontenbildung zwischen langgedienten und neuen Mitarbeitern, Silodenken der involvierten Bereiche und lauwarmes (bis gar kein) Interesse der Unternehmensleitung genannt.

Ein ganz ähnliches Bild zeigte sich auch während eines Round-Table zu Beginn der Veranstaltung und zumindest in der Gruppendiskussion, die von LeanBI moderiert wurde: kaum ein Unternehmen kann derzeit auf tatsächlich realisierte IoT-Projekte verweisen.
In einigen Firmen werden zwar schon fleissig Daten gesammelt und angehäuft, aber man weiss nicht so recht, was damit anzufangen ist. Auch existieren teilweise bereits Ideen zu neuen Businessmodellen wie z.B. im Bereich Gastronomie („wie kann das Angebot besser an die Kundenströme angepasst werden?“) oder bei Maschinen- und Apparatebauern („lässt sich mit „Product-as-a-Service“ zukünftig Umsatz generieren?“). Doch wirklich konkret ist bislang nur Weniges.
Anders gesagt: Die Datengrundlage ist oft schon da, aber die use cases fehlen.

Ein weiteres und deutliches zentrales Firmenanliegen ist die Analyse der vorhandenen Daten: diese Expertise fehlt ganz offensichtlich in vielen Firmen, d.h. dies ist ein Bereich, in welchem LeanBI bei Bedarf gute Unterstützung bieten kann.
Darüber hinaus regen Teilnehmer auch die vermehrte Zusammenarbeit zwischen Firmen an, und zwar nach dem Motto „can we beat Google?“. Damit ist die Nutzung bereits vorhandener Kenntnisse in der Datensammlung und -Auswertung unabhängig von den „Grossen“ gemeint.

Übrigens:
Management Events als Organisator der Veranstaltung plant, die beiden IoT-Konferenzen in 2017 an einem deutschen Standort zusammenzulegen. Der Grund dafür ist eine allgemein deutlich grössere Akzeptanz des Themas in Deutschland, so dass man sich von einem dortigen Austragungsort eine spürbare Belebung der schweizerischen IoT-Aktivitäten erhofft.

Fazit:
Eine sowohl für die Gäste als auch für LeanBI sehr lohnende Veranstaltung mit einer ausgesprochen freundlichen Atmosphäre und einer sehr offenen Gesprächskultur, zudem hervorragend organisiert. Die Teilnahme von LeanBI war in jeder Hinsicht sinnvoll.

Es geht vor allem um Daten

In der heutigen Ausgabe der NZZ ist ein Artikel [Link] erschienen, der die Fortschritte der künstlichen Intelligenz anhand der Durchbrüche im Machine Learning darstellt. So hat Google kürzlich eine Software entwickelt, die im Stande ist, einen der besten Spieler des chinesischen Brettspiels Go zu schlagen. Ist es beim Schach schon lange Konsens, dass wohl kein Weltmeister mehr einen Schachcomputer schlagen wird, so gilt dies im „asiatischen Schach“ als kleine Sensation. Das sehr viel komplexere Spiel verlangt einer Software aufgrund der unzähligen Variationsmöglichkeiten ab, dass sie „selber lernen“ kann, da lange nicht alle möglichen Spielsituationen gespeichert werden können. Ähnlich zum Fall Google hat der Automobilhersteller Tesla ein selbstfahrendes Auto entwickelt, welches in unterschiedlichen Verkehrssituationen intelligente Entscheidungen treffen kann. Es hält auf der Autobahn automatisch die Geschwindigkeit, beschleunigt, bremst ab oder wechselt die Spur.

slide-img-02

Der Kern dieser Fähigkeit von Maschinen, selbstständig Entscheidungen zu treffen, sind Daten. So kann der Algorithmus von Tesla zum Beispiel auf eine riesige Datenbank von Millionen von gefahrenen Meilen zurückgreifen, mit deren Hilfe er sich ständig verbessert, also „lernt“. Dank Hochleistungscomputer und riesigem Datenpool kann der Komplexitätsgrad des Algorithmus erhöht werden. So lernt die Software dank steigender Komplexität mehr Standardsituationen zu erfassen und zu verarbeiten, was zu intelligenteren Entscheidungen führt.

Die Algorithmen von industriellen Maschinen mögen zwar nicht so komplex sein wie jene eines selbständig fahrenden Autos, aber das Prinzip funktioniert auf gleiche Weise. Die Maschinen generieren durch ihren täglichen Betrieb eine Unmenge an Rohdaten, welche für das Training der Algorithmen verwendet werden. Mit zunehmender Laufzeit der Maschinen und einer dementsprechend umfassenderen Datensammlung können die Algorithmen komplexere Probleme lösen, beispielsweise Maschinenstörungen besser und frühzeitiger voraussagen. Durch diesen Kreislauf verbessert sich eine Maschine also ständig und lernt durch selbst erfasste und aufbereitete Daten immer mehr dazu. Dieser Prozess erlaubt es kleineren Industriebetrieben zudem, mit einfachen Fragestellungen zu beginnen, die dank zielgerichteter Datenauswertung stetig an Komplexität gewinnen und durch dieses „Dazulernen“ mitwachsen.

Big Data wird als Schlüssel zu diesem Machine Learning also zunehmend wichtiger. Je mehr Daten erfasst und verarbeitet werden, desto schneller und effizienter kann eine Maschine ihre Funktionen ausbauen und verbessern. Dank einem niederschwelligen Einstieg in die Welt von Big Data ist es auch KMUs möglich, das zukunftsweisende Konzept des Machine Learning in ihren Industriebetrieben einzusetzen. Die Technologie der lernenden Maschine findet darum nicht nur in spielerischen Innovationen wie einem Go-Computer Anwendung, sondern kann auch für Predictive Maintenance eingesetzt werden. Sie erlaubt einer Textilverarbeitungsmaschine, eine mögliche zukünftige Störung vorauszusehen und den zuständigen technischen Leiter per SMS zu alarmieren.

Mehr Informationen auf zu den Themen Big Data und Industrie 4.0 finden Sie auf unserer Homepage.