Kann Business Intelligence für KMU von Nutzen sein?

Dieses Thema wurde kürzlich vom KMU-Portal des Staatssekretariats für Wirtschaft (SECO) behandelt. Im besagten Artikel wird der Nutzen von Business Intelligente (BI) für KMU klar bejaht, unter anderem dank unseres BI-Angebotes für KMU. Lesen Sie den ganzen Artikel http://www.kmu.admin.ch/aktuell/00513/04230/04320/index.html?lang=de oder nachfolgend unsere Zusammenfassung:

Ein Unternehmen produziert aufgrund der stetig wachsenden Informationstechnologie immer mehr Daten. Nur nützen ihm Daten alleine nicht sehr viel. Hier kommt die Business Intelligence ins Spiel, deren Aufgabe es ist, Daten zu sammeln, auszuwerten und zu verbreiten. Doch wie funktionieren diese Prozesse konkret? Daten werden in Form von Textdateien, Excel-Tabellen oder anderen Datenbanken katalogisch in einem Data Center gespeichert, von wo aus bequem auf sie zugegriffen werden kann. Diese Rohdaten werden nun durch eine Software so ausgewertet, dass sie genau den Aussagegehalt besitzen, den der Endnutzer für seine Arbeit benötigt. Schliesslich werden die so aufbereiteten Informationen an die jeweiligen Abteilungen weitergegeben, die sich nicht mehr darum kümmern müssen, in langwieriger Arbeit selbst die gewünschten Analysen der Rohdaten vorzunehmen.

Dank seiner Funktionsweise hat Business Intelligence breitgefächerte Anwendungsmöglichkeiten, gerade auch für KMU. Sie kann die Produktionseffizienz steigern, Wartungsarbeiten erleichtern, Logistikketten optimieren und vieles mehr. Entscheidungsprozesse können also dank den Informationen, die aus den Daten generiert werden, die ein KMU bereits besitzt, sehr viel erfolgreicher bewältigen. Wo man sich früher auf das „Bauchgefühl“ verlassen musste, können heute rationale, auf Informationen gestützte Entscheidungen getroffen werden.

Business Intelligence wird von den Big Four beherrscht, also von Microsoft, IBM, Oracle und der SAP. Diese Branchenriesen bieten ihre standardisierte Software an, die ein KMU nicht nur mit Lizenzkosten belastet, sondern auch in seiner Flexibilität einschränkt. So ist es zum Beispiel möglich, dass eine solche Standardsoftware ein exotisches Dateiformat nicht unterstützt. Unabhängige, flexible Lösungen kommen eher von kleineren BI-Unternehmen wie LeanBI. Anstatt teure Lizenzsoftware zu vermarkten, baut LeanBI auf Open Source und um dem Kunden eine volle Kontrolle über dessen eigene Daten zu garantieren, bietet LeanBI ihre Produkte auch On Premise an. So hat LeanBI mehrere Dienstleistungen im Angebot, wie zum Beispiel ein Starter Kit für CHF 18’900, welches die Software und die Basis-Infrastruktur sowie 15 Beratungstage und zwei Tage mit Praxis-Workshops enthält. Alternativ dazu kann man auch ein Monatabonnement buchen, welches die Daten extern verwaltet und Zugang über eine cloud-basierte Lösung ermöglicht. Für günstige CHF pro Nutzer im Monat kann ein KMU bereits eine solide BI-Lösung erwerben.

Business Intelligence wird also auch für KMU immer wichtiger, wenn sie wettbewerbsfähig bleiben wollen. Periklis Andritsos, Professor am Département des Systèmes d’Information der HEC Lausanne rät KMU-Unternehmern, mindestens 10% ihres Personals im Bereich der Business Intelligence einzusetzen und auf interne, der Firma angepasste Lösungen zurückzugreifen. Das heisst, dass man als KMU mit LeanBI besser fährt als mit einem der Big Four. Auch in diesem Bereich schlägt David Goliath.

Analytische Services führen auch KMU zu Industry 4.0 und Smart Factory

Wie jüngste Beispiele aus der Automobilindustrie gezeigt haben, kann Qualitätskontrolle zu einem positiven wie auch negativen Schlüsselfaktor für ein Unternehmen werden. Wie aber lässt sich auf der Basis von grösseren Datenmengen eine effiziente und dennoch kostengünstige Qualitätskontrolle durchführen? Junge Start-ups wie LeanBI haben Antworten auf diese Frage.

Neue Entwicklungen in der Industrie bedürfen neuer Lösungsansätze

Die Digitalisierung ist in den Industrieunternehmen angekommen. Und sie wird zunehmend zu einem entscheidenden Wettbewerbsfaktor.

Ob in Supply Chain, Logistik, Produktion oder Qualitätskontrolle – mit der Vernetzung von Maschinen und der Entwicklung intelligenter Produkte entstehen immer grössere Datenmengen. Diese sind allerdings nur dann produktiv nutzbar, wenn Unternehmen aus ihnen Wissen generieren und dieses zur Stärkung Ihrer Wettbewerbsfähigkeit einsetzen.

Intelligente Analytik ist der Schlüssel zu diesem Wissen. Grosse Unternehmen haben das Potential ihrer Daten bereits vor einiger Zeit erkannt und setzen auf intelligente Datenanalytik als wichtige Grundlage für ihre Geschäftsentscheide. Denn nur durch die systematische Auswertung von Daten und die Nutzung zukunftsweisender Analytik-Modelle können Unternehmen neue Erkenntnisse gewinnen, ihre Prozesse und Produkte verbessern, und die steigende Komplexität meistern. So können sogar neue Geschäftsmodelle entstehen, die Unternehmen auf dem Werkplatz Schweiz im nationalen und internationalen Wettbewerb für sich nutzen können. Diese Entwicklung, die in Grossfirmen schon vor einiger Zeit angelaufen ist, macht auch vor KMU nicht halt. Im Gegenteil, KMU sehen sich vor den gleichen Herausforderungen wie die Grossfirmen.

Industry-4.0_process

Können sich KMU solche Services leisten?

Kleinere Firmen können sich den Aufbau grosser Analyseumgebungen oftmals nicht leisten. LeanBI hat diese Nische erkannt und Tools sowie Methoden entwickelt, welche die Datenauswertung nicht nur effizienter, sondern auch für KMU erschwinglich machen. So können z.B. dank der Nutzung von Open-Source anstatt gebührenpflichtiger Software durch einfache und effiziente Analytic-Architekturen Kosten eingespart werden. Ein intelligenter Aufbau der Cloud Services auf Commodity-Strukturen garantiert des Weiteren einen reibungslosen Ablauf für den Kunden, selbst bei einem Teilausfall.

Ein grosser Schritt in Richtung Industry 4.0

LeanBI hat sein Geschäftsmodell auf den KMU-Bereich spezialisiert. Als solches bietet es auf Knopfdruck analytische Lösungen im Bereich Industry 4.0 und Smart Factory an, ob als Service oder On Premise. Da sich die Daten in jedem Fall im Netzwerk des jeweiligen Kunden befinden, ist die Datenhaltung überaus sicher. Zusätzlich stellt LeanBI einen analytischen Full-Service bereit, der nach agilen Methoden an den jeweiligen Kunden angepasst wird. Es ist die Kombination der Erfahrungen aus der Industrie, dem Datenmanagement und der IT-Branche, welche Start-ups wie LeanBI zu einem effizienten und attraktiven Partner im Bereich der Business Intelligence und Analytic Industry macht. Oder kurz gesagt: Sie liefern die Daten, LeanBI generiert die Informationen.

Verständlich erklärt: Technisches Vorgehen bei Predictive Analytics am konkreten Beispiel „Lagerhaltung von Bier“

Bei Predictive Analytics werden historische und aktuelle Daten statistisch analysiert, um mit den gewonnenen Erkenntnissen Ereignisse (häufig in der Zukunft) vorauszusagen. Die Voraussagen sind statistischer Art im Stil von: Der Bierkonsum wird in Rio Anfang August 2016 mit einer Wahrscheinlichkeit von 90% um mindestens 21% ansteigen, in Bern um mindestens 25%.

Bereits heute ist Predictive Analytics im Einsatz:

  • Predictive Maintenance: Der Zeitpunkt eines Produkt-Defektes wird vorausgesagt –> Die Unterhalts-Firma kann im Voraus reagieren
  • Kundenzufriedenheit: Eine Firma sagt die Zufriedenheit eines Kunden voraus –> Proaktiv wird der Kunde bei seinen Problemen unterstützt –> Der Kunde bleibt hoffentlich treu
  • Credit Scoring: Die Bank schätzt die Wahrscheinlichkeit ein, ob ein Schuldner einen Kredit rechtzeitig zurückzahlt –> Entscheidung ob der Kredit gewährt wird
  • Predictive Police: In Zürich werden Einbrüche vorhergesagt –> Polizei zielgerichtet einsetzen

Ein erfolgreiches Predictive Analytics Projekt besteht aus drei Key Elementen, wobei wir uns in diesem Blog auf die technische Umsetzung konzentrieren.

  • Zugriff auf relevante Daten
  • Eine Frage, die mit Hilfe der Daten zu beantworten ist.
  • Eine technische Umsetzung mit Algorithmen und Modellen

Übersicht des Vorgehens

Flussdiagramm: Vorgehen bei Predictive Analytics

Bild: Vorgehensprozess Predictive Analytics

Die Daten durchlaufen die Prozesse Feature Extraction und Feature Selection (deutsch: Merkmals-Extraktion & Merkmals-Auswahl) Hier wird im Wesentlichen entschieden, wie eine gewisse Information weiterverarbeitet soll, bevor sie verwendet wird (Feature Extraction) und welche Information aus den vorhandenen Daten überhaupt verwendet werden sollen (Feature Selection). Die so gewonnenen und ausgewählten Features (Datenmerkmale) durchlaufen dann einen Algorithmus. Der Algorithmus wird antrainiert, indem bestehende Ergebnisdaten aus der Vergangenheit verwendet werden. Es findet danach, wie im Bild dargestellt, eine schrittweise Optimierung statt, indem bessere Features bereitgestellt oder Features gelöscht werden, welche dem Algorithmus nicht weitergeholfen haben. Auch werden unterschiedliche Algorithmen getestet, bis eine zufriedenstellende Voraussage besteht. Dann wird der beste trainierte Algorithmus eingesetzt, um mit neuen Daten qualitativ hochwertige Voraussagen zu liefern.

Wir gehen nun detaillierter auf die verschiedenen Punkte ein.

Feature Extraction

Aus einem Datum können beispielsweise viele Informationen gewonnen werden: Wochentag, Wochenende, Schulferien, findet gerade die Olympiade statt, steht der 1. August vor der Tür. Alles Informationen, welche je nach Fragestellung sehr hilfreich sind:  Wochenende -> Mehr Zeit zum Trinken, 1. August -> Grosser Detailhandelumsatz am Tag davor, Olympiade -> Grosse Biernachfrage, usw.. So kann Feature Extraction entscheidend dazu beitragen, dass ein Algorithmus die Biernachfrage gut voraussagen kann.

Feature Selection

Auch die Auswahl der Datenmerkmale (Feature Selection) ist ein wichtiger Teil. Es gibt bekanntlich eine Fülle an verschiedenen Daten. Es ist unklug, alle vorhandenen Daten dem Algorithmus zur Verfügung zu stellen, da dies sonst zu einem sogenannten Overfitting (deutsch Überanpassungs-Problem) führen kann. Dass am 23. November 2015 der Berner Zibelemärit stattfand, beeinflusste den Glühweinkonsum gewaltig, bringt uns aber in der richtigen Bierkonsum-Vorhersage nicht weiter, es führt eher zu „Verwirrung“ und der Algorithmus muss nun zusätzlich lernen, dass er diese Information besser ignoriert. Es kann passieren, dass der Algorithmus gewisse unwichtige Datenmerkmale zu stark gewichtet, und so suboptimale Voraussagen liefern wird.

Eine Frage der Datenmenge

Man kann dem Computer die Aufgabe der Feature Extraction und Feature Selection vollständig übertragen. Das funktioniert ohne menschlichen Einfluss, wenn die Datenmenge gross genug und genügend Rechenkapazität vorhanden ist. Dann findet ein Algorithmus problemlos heraus, dass die letzten Olympischen Sommerspiele in London den Bierkonsum ankurbelten und dass dies kein Einzelfall war (auch die früheren Olympiaden führten zu einem erhöhten Bierkonsum). So kann ein Computer selbständig und ohne menschliche Interaktion das Feature „Olympische Spiele“ finden. Selbstredend funktioniert dies nur, wenn die Daten über den Zeitraum der letzten paar Olympischen Sommerspiele (15-20 Jahre) auch vorhanden sind. Dies bedingt eine genügende Datengrundlage (meistens Big Data) und einhergehend grosse Rechenleistungen (bis hin zu Datencentern wie Google). Mit grossen Datenmengen und hoher Rechenleistung verliert Overfitting an Brisanz.

Hat man die grosse Rechenpower oder die benötigten Datenmengen nicht zur Verfügung, so müssen zumindest Teile der Merkmalsbearbeitung vom Menschen erledigt werden (aber möglichst nicht am 1. August). Ein Hilfsmittel zur Anwendung der richtigen Features ist die Visualisierung der Daten. Die Visualisierungen bringen neue Einsichten und ein Verständnis der Daten, und sie können auch Indizien liefern, ob ein Zusammenhang zwischen einem Feature und der benötigten Voraussage besteht. Konkret könnte man ein mögliches Feature gegen die gewünschte Vorhersage plotten. (Beispielsweise Bierkonsum versus Bier-Produktion). Dann wird man feststellen, dass die Bier-Produktion im 7-Tage-Rhythmus zum Bierkonsum auseinanderdriftet, da am Wochenende wenig produziert und gleichzeitig mehr konsumiert wird. Und so wird ein guter Data Scientist vorschlagen, das Wochenende als Feature zu wählen.

Zielführend für mittelgrosse Projekte ist eine Kombination von menschlicher und automatischer Feature Extraction und Feature Selection. Wenn der Mensch viele wichtige aber auch unwichtige und „verwirrende“ Features erkennt, erleichtert dies dem Computer die Arbeit. Die verbleibenden Features kann nun der Algorithmus selber erkennen. Durch die moderatere Anzahl der automatisierten Merkmalsbearbeitung reduzieren sich der Rechenaufwand und die Gefahr von Overfitting.

Machine Learning Algorithmen trainieren und auswählen

Die Daten und die ausgewählten Features werden nun dem Algorithmus zu Trainingszwecken übergeben. Der Algorithmus lernt nun aus der Erfahrung u.a. wie stark die vergangenen Olympischen Sommerspiele den Bierkonsum erhöhten. So kann der Computer auch den Einfluss von Spielen auf den Bierkonsum abschätzen und am 10. August 2016 einen hohen Bierkonsum voraussagen, da gerade die Olympiade in Rio stattfindet. Dieses Lernen passiert natürlich nicht individuell auf einem Feature (der Olympiade) sondern gleichzeitig mit allen ausgewählten Features (Olympiade, Wochenende, 1. August, Fussball-WM, Oktoberfest, Wettervorhersage, Jahreszeit, Gurten-Festival usw.).

Es stellt sich nun aber die Frage, welcher Machine Learning Algorithmus verwendet werden soll. Wir stellen ein paar wichtige Anforderungen an die Algorithmen vor:

  • Erforderliche Genauigkeit: Manchmal ist keine allzu genaue Voraussage erforderlich. Dann können relativ ungenaue Algorithmen eingesetzt werden, welche dafür umso schneller rechnen.
  • Verfügbare Datenmengen: Bei einer kleinen Datenmenge kann nur ein Algorithmus mit wenigen Parametern verwendet werden. Mit zunehmender Datenmenge werden auch komplexere, genauere und rechenintensivere Algorithmen mit mehr Parametern möglich.
  • Erklärende Algorithmen: Es kann vorkommen, dass man zusätzlich zu einer Voraussage auch noch eine Erklärung wünscht, wie die Voraussage zustande kam. Der Algorithmus soll beispielsweise mitteilen, dass die Bierkonsum-Voraussage sehr hoch ist, weil zu diesem Zeitpunkt gerade die Olympiade in Rio stattfindet. Viele Machine Learning Algorithmen sind dazu nicht im Stande.
  • Eigene Algorithmen: In den häufig gebrauchten Programmen / Libraries sind nicht alle Algorithmen bereits programmiert. Der Aufwand einen Algorithmus selber zu programmieren oder eine neue Library zu verwenden kann hoch sein. Darum besteht ein gewisser Anreiz bereits vorhandene Algorithmen zu verwenden.

In der Praxis kommt es vor, dass kein Algorithmus alle Wünsche erfüllt. Insbesondere weil der „perfekte“ Algorithmus in den verwendeten Tools nicht implementiert ist. Es ist deshalb vernünftig mit einem einfachen Algorithmus zu beginnen, welcher dafür auf Knopfdruck zur Verfügung steht und schnell berechnet wird. Wenn ein solcher Algorithmus nicht annähernd eine vernünftige Voraussage liefert, ist es unwahrscheinlich, dass ein raffinierter Algorithmus eine gute Voraussage berechnet. Dann ist es zielführender, beispielsweise zusätzliche Daten und bessere Features zu verwenden. Wenn allerdings die Voraussage-Qualität eines einfachen Algorithmus noch ein wenig verbessert werden soll, können raffiniertere Algorithmen durchaus behilflich sein. So kann Schritt für Schritt nach besseren Algorithmen und Features gesucht werden.

Machine Learning Algorithmen testen

Nicht nur zum Trainieren eines Algorithmus braucht es Daten, sondern auch um den Algorithmus zu testen oder, in anderen Worten, um die Qualität eines Algorithmus zu messen. Deshalb werden die vorhandenen Daten in zwei Gruppen eingeteilt. Mit der einen Gruppe, den sogenannten Trainings-Daten, wird der Algorithmus trainiert. Mit der anderen Gruppe, den Test-Daten, wir der Algorithmus getestet. Bei einem solchen Test wird der Algorithmus beauftragt, eine gewisse Voraussage zu liefern. Die gemachte Aussage wird dann mit den realen Messungen in den Test-Daten verglichen. Der Algorithmus schneidet dann gut ab, wenn die Voraussagen gut mit den realen Messungen übereinstimmen.

Ich möchte noch ein paar Worte über die Aufteilung der Daten in Trainings- und Testdaten verlieren. Die Aufteilung sollte möglichst realistisch erfolgen, um sich beim Test nicht selber in die Irre zu locken. Beispielsweise würde ein realistischer Test für die automatische Biernachfrage entstehen, wenn man so tun würde, als ob letzter Monat wäre. Dann trainiert man den Algorithmus mit allen Daten, die vor einem Monat schon vorhanden waren. Anschliessend liefert der trainierte Algorithmus die gewünschte Voraussage der Zukunft (als von diesem Monat). Beim Test wird nun die Voraussage mit den gemessenen Werten dieses Monates verglichen.

Frage beantworten / Voraussage treffen

Nun sind die Features ausgewählt sowie der Algorithmus trainiert und so können nun die gewünschten Voraussagen maschinell geliefert werden. So weiss, beispielsweise, die Bier-Produktion wie viel sie produzieren soll. Auch die Logistik kann optimiert werden, da nun bekannt ist wo wie viel Bier nachgefragt wird. Glücklicherweise passiert die Voraussage automatisch, und so wird genügend Zeit bleiben um mit dem kühlen Lieblingsbier in der Hand die Olympiade zu schauen.

Fragen

Schreiben Sie uns bei Fragen oder Interesse an eine live Demonstration (info@leanbi.ch) oder rufen Sie uns an (+41 79 247 99 59).

Self-Service Business Intelligence ist kein Freibrief für den Fachbereich

Sie kennen das Problem aus der Praxis: Die Ressourcen sind knapp, die Kompetenzen nicht eindeutig geklärt und durch mangelnde Koordination wird unnötig Zeit verschenkt. Hier muss eine Lösung her, die an vorderster Front zum Einsatz kommt. Diese Lösung bietet Self-Service Business Intelligence. Durch unsere professionellen Lösungen wird Business Intelligence einfacher und sicherer. Die Kompetenzen verbleiben bei Fach und IT – die Rollen beider Bereiche werden gestärkt. Der Fachbereich kann Aufgaben eigenständig bewältigen, ohne dabei die komplette Kontrolle zu übernehmen.

Das Ziel: Business Intelligence soll flexibel und anpassungsfähig, aktiv und reaktionsschnell werden.

Die Anforderung: Entscheidungsgrundlagen für Reporting und Analyse müssen zeitnah und verlässlich verfügbar sein – auch bei enger Ressourcenbasis in den Fachbereichen. Self-Service bietet die Lösung:

Der Fachbereich übernimmt Business Intelligence Aufgaben selbst. Das bedeutet:

– schnellere Reaktion

– weniger Abhängigkeit von der IT

Das Erstellen von Reports, Analysen und Planung wird vollständig in die Hände des Fachs geben. Die Tools dafür sind vorhanden. Durch Self-Service Business Intelligence können die Fachbereiche Aufgaben in Eigenregie durchführen. Das entlastet die IT und ermöglicht die Konzentration beider Bereiche auf ihre Kernkompetenzen. Der Fachbereich erstellt das Berichtskonzept, die fachliche Definition der Kennzahlen und das Berichtslayout. Aber das Fach kann und darf nicht alles, denn Self-Service ist kein Freibrief. Die IT besorgt die Datenbeschaffung (inkl. Quellsystemanbindung) und die konsistente Dateneinbindung in das Enterprise Data Model. Dadurch ist gewährleistet, dass sich das Datenmanagement in der Hand von Spezialisten befindet. Das ist wichtig, da die Datenmodellierung über das bloße „Einlesen“ von Daten weit hinausgeht. Die Daten aus unterschiedlichen Quellen werden zu einem logischen Datenmodell verknüpft – dauerhaft und verlässlich. Dadurch behält die IT Ihren Stellenwert, denn die Datenmodelle und deren Befüllung bleiben in Ihrer Hand – das können und dürfen die Fachabteilungen nicht. Die Daten aus den Quellsystemen werden in die gewünschte Struktur gebracht. Das Ergebnis ist ein sauberes Datenmodell. Diese Aufgaben werden von IT-Spezialisten (nicht den Fachbereichen selbst) erledigt. Das Ergebnis sind saubere Daten, die ein dauerhaft führbares System gewährleisten.

BI-Governence: Diese Schnittstelle zwischen Fachbereich und IT regelt die Zuständigkeiten und die groben Prozesse. Der Fachbereich nimmt neue Anforderungen auf und setzt sie – möglichst direkt – um:

Self-Servis-BI

Bild: Self-Service ist kein Freibrief für den Fachbereich – sondern sorgt für klare Zuständigkeiten.
Self-Service BI

– weist dem Fachbereich mehr Aufgaben zu

– definiert die Schnittstelle zur IT neu

– stärkt die Stellung und Fachkompetenz der IT.

Beide Seiten konzentrieren sich auf ihre Stärken. Der Fachbereich liefert Entscheidungsgrundlagen, die IT stellt die Datengrundlage bereit – dauerhaft. Die BI-Governance regelt dabei die Kompetenzen nach dem Motto: So wenig wie möglich, soviel wie nötig.

Fazit: Beim Einsatz professioneller Self-Service BI gewinnt die BI Governance an Bedeutung. Die Report- und Datenqualität bleibt hoch, die Verantwortlichkeiten sind klar getrennt. Fach und IT konzentrieren sich auf ihre Stärken und arbeiten dennoch gemeinsam – schnell und effektiv.

Bei Interesse zeigen wir Ihnen gerne unsere Self-Service BI in einer Live-Demo. Nehmen Sie dazu mit uns unverbindlich Kontakt auf via Telefon +41 79 247 99 59 oder via Email info@leanbi.ch.

Entdecken Sie die Macht Ihrer Daten

Wir möchten auch unseren Blog-Besuchern den Halbtages-Gratis-Workshop bei Ihnen zu Hause nicht vorenthalten. Ein Angebot welches in unserer Email-Kampagne bereits Zuspruch fand. Aus diesem Grund finden Sie anschliessend den Inhalt dieser Kampagne:

die_Macht_der_Daten

Sie wollen…

  • Ihre Logistik optimieren?
  • Die Qualität Ihrer Produkte verbessern?
  • Die Kosten bei Produktentwicklung und Produktion senken?
  • Mehr Zusatzservices zu Ihren Produkten anbieten?

Wir optimieren Ihre Produkte und Prozesse und spüren unbekannte Zusammenhänge
auf.

Sie liefern uns Ihren Berg von Messdaten. Wir zeigen neue Wege zur Verbesserung Ihrer Logistik, Entwicklung, Produkte und Prozesse und erstellen auch Ausfallsprognosen Ihrer Systeme. Mit unseren Ansätzen erhöhen Sie Ihre Produkteffizienz und reduzieren gleichzeitig Ihre Unterhaltskosten.

Unsere Data Scientists analysieren Ihre Daten mit spezialisierten Algorithmen basierend auf In Memory Big Data Technologien – ohne grossen Programmieraufwand, dafür umso mehr mit Visualisierungen, die Sie verstehen und die Ihnen erweiterte Welten erschliessen.

Lassen Sie sich in einer Demo von uns überzeugen und nutzen Sie die Macht Ihrer Daten.

Marc TeschDr. sc. techn.

Maschinenbauer ETH
& Betriebswirt

Stefan PauliDr. sc. ETH

Informatiker ETH

& Elektroingenieur

Wolfgang WeberDr. rer. nat.

Physiker Univ. Freiburg i. B.

& Management Berater

Und unser schlagkräftiges LeanBI AG Team

Buchen Sie uns für einen halbtägigen Gratis Workshop bei Ihnen im Haus

Nehmen Sie mit uns unverbindlich Kontakt auf via Telefon +41 79 247 99 59 oder via Email info@leanbi.ch.


    Industrie 4.0 in der Schweiz

    Heute sind die Daten mobil. Terabytes, wie sie bei Industrie 4.0 anfallen, können ohne Probleme über den Globus verschoben werden. Auch sind genügend Globale Cloud Anbieter wie Google oder Amazon bereit, auch Schweizer Daten in Empfang zu nehmen. Zudem sind genügend global ausgerichtete Firmen für die Auswertung der Daten parat.

    Nun schätzen es aber gewisse Schweizer Firmen, dass Ihre Industrie 4.0 Daten in der Schweiz unter Schweizer Datenschutzbestimmungen bleiben. Dies erhöht dank unserem strengen Datenschutzgesetz die Datensicherheit, schon rein aus rechtlicher Sicht. Anderen Firmen ist dies bereits zu viel, und sie schätzen es, wenn die Daten Ihre Firma erst gar nicht verlassen, sondern „on premise“ bleiben. Für all dies sind wir gewappnet, einerseits mit unserer reinen Schweizer Cloud, andererseits mit unserer Industrie 4.0 Installation bei Ihnen im Haus.

    Aber nicht nur für Ihre Daten ist die Reise von Ihrer Firma zu unserer Schweizer Cloud kurz, sondern auch für unsere Spezialisten, wenn sie zu Ihnen reisen. Dank der geografischen Nähe können wir Sie persönlich treffen, ohne horrende Spesenrechnungen und ohne lange Planung. Dank dem Taktfahrplan der SBB ergibt sich jede halbe Stunde eine neue Möglichkeit. Und eventuell geht es Ihnen ja ähnlich wie unserem Data Scientist: „Zum Teil diskutiert me ringer uf Schwizerdütsch“.

    Case Study: Optimierung von Liefer- und Fertigungsprozess in der Elektronikindustrie

    Bei der Herstellung von Elektronikbauteilen fällt eine sehr grosse Menge an Prozessdaten entlang der Lieferkette an. Es werden zukünftig neben reinen Standardprodukten verstärkt massgeschneiderte Komponenten in kleineren Stückzahlen mit kurzen Lieferzeiten verlangt. Aufgrund des häufigen Fertigungswechsels eines Chargenbetriebs fallen dabei notgedrungen zunehmende Stillstandszeiten an den Maschinen an. Das ständige An- und Abfahren der Maschinen führt zu vermehrten Wartungszeiten und –kosten und zu häufigeren Ausfällen der Maschinen und damit zu höheren Produktionskosten.

    Die Rückverfolgbarkeit der Produkte wird für die Produktnutzer zum Thema Nr. 1 werden – aus Compliance-Gründen, aber auch aus internen Qualitätsüberlegungen. Qualitätsprobleme an den Produkten sollen zu allen Zeiten nachweislich rückverfolgbar sein.
    Hier kommt die Methode der Analytic Industry ins Spiel: Analytic Industry optimiert den Liefer- und Fertigungsprozess des Elektronikherstellers mit folgenden Zielen.

    Projektziele
    • Zentrales Erfassen der Prozess- und Produktdaten sowie der Daten zu Materialbewegungen und die Lieferinformationen
    • Verarbeitung von Fehler-Logdateien, Erkennen von Fehlerzusammenhängen
    • Einführung eines zentralen Kennzahlensystems zur Fertigungsplanung- und Optimierung über die gesamte Prozess- und Produktkette
    • Qualitätssteigerung durch Rückverfolgbarkeit.
    • Einfache Historisierung der gesamten Datenmenge in feingranularer Form für spätere Analysen

    Case Study: Optimierung von Liefer- und Fertigungsprozess in der Elektronikindustri

    Kundennutzen
    • Verringerung der Produktionskosten durch optimierte Prozessführung (Minimierung der Umrüst-, Wartungs- und Stillstandzeiten)
    • Analyse von Qualitätsproblemen
    • Sicherstellung der 100%-igen Rückverfolgbarkeit
    • Steigerung der Produktqualität durch Kombination von Qualitäts- und Maschinendaten
    Vorgehen

    Eine Datenaufnahme entlang der Lieferkette inklusive Maschineninformationen findet häufig weder systematisch noch flächendeckend statt. Angefangen mit einem Prototyp des Mess- und Analytic- Aufbaus beweisen wir deshalb die Machbarkeit einer solchen flächendeckenden Informationsbeschaffung mit Analytic Industry. Es findet dabei eine kontinuierliche Messdatenerfassung mit hoher zeitlicher Auflösung statt, welche die Daten in einen zentralen Datenpool überträgt. Da dies häufig mit grossen Datenmengen verbunden ist, verwendeten wir neueste Big Data Technologien. Wichtigstes Merkmal einer solchen Lösung ist die einfache Datenarchitektur, also keine komplexen Data Warehouse (DWH), sondern eine formatübergreifende Speicherung mit dem Ziel stetige Anpassungen und Erweiterungen einfach umsetzen zu können.

    Nach dem Machbarkeitsbeweis werden sukzessiv weitere Systeme und Messpunkte aufgeschaltet, so dass sich bereits nach wenigen Wochen wesentliche neue Erkenntnisse zur Gesamtanlage ergeben.
    Zur Analyse der Daten werden unterschiedliche Analyse-Verfahren eingesetzt, insbesondere Algorithmen aus dem Bereich des Machine Learning und des Operations Research. Die komplexe Fertigungsplanung wird so über algorithmische Ansätze verbessert, Stillstandzeiten der Maschinen und daraus abgeleitete Maschinenkosten reduziert. Qualitäts- Beanstandungen können neu über den gesamten Prozess rückverfolgt werden. Damit wird auch prognostisch das Risiko von weiteren Qualitätsbeanstandungen abgeschätzt und zukünftige Qualitätsmängel werden frühzeitig behoben.

    Weitere Case Studies finden Sie in unserer Proschüre „4 Case Studies, Analytic Industry

    Analytik als Vollservice für die Schweizer Industrie: LeanBI Analytic Industry

    LeanBI ist ein Team von Ingenieuren und Betriebswirtschaftlern, das jahrelange Erfahrung auf Business Analytics aufweist. Wir bieten einen analytischen Vollservice für Schweizer Industrien, „LeanBI Analytic Industry“.

    Die Daten der Messinstrumente und der Maschinen liefert in der Gesamtheit ein Wissensfundus unentdeckter Werte für die Unternehmen. Wir sammeln die Daten von Anlagen, Fabriken und Maschinen, verteilt über die Welt, und werten diese mit neuen Analysetechniken aus. Unser Service beinhaltet die Datenanbindung, Analyse, Visualisierung und Informationslieferung bzw. Rückspeisung in die Produktion. Wir stellen mit Algorithmen Zusammenhänge dar, simulieren und prognostizieren Ereignisse. „LeanBI Analytic Industry“ ist ein gekapseltes Produkt mit offenen Schnittstellen und Standards (Open Source) inkl. Infrastruktur, das andere Produkte oder Dienstleistungen veredelt. Beispielsweise kann unser Produkt auf der Automatisierungs- und Kontrolltechnik der Anlagen aufsetzen. „Analytic Industry“ kann auch als reine Dienstleistung auf Ihren Daten und Infrastrukturen angewendet werden.

    analytics4
    Abb.1: Unser Service auf einen Blick

    Mit LeanBI werden Ihre Daten vernetzt und sind sicher verwahrt

    Wir, LeanBI AG, beziehen die Messdaten, die an den Maschinen oder Automationssystemen anfallen, wandeln diese in geeignete Transportformen um und streamen sie in Echtzeit an einen zentralen Ort, einen Datenpool. Zentral und Sicher! Entweder die Daten liegen in Ihrem Rechenzentrum oder als Alternative in unserer dafür bereitgestellten Infrastruktur. Im letzteren Fall liegen die Daten in einem Schweizerischen Rechenzentrum (wenn auch gewünscht als Dual Site gespiegelt) mit allen erforderlichen Sicherheitsregelungen, die auch für Bankdaten gelten.

    Die Daten sind in einem für das Unternehmen abgetrennten Bereich gespeichert und können nur durch berechtigte Personen eingesehen werden. Der Datentransfer von den Sensoren in den Datenpool geschieht über VPN (Virtual Private Network), was bezüglich Sicherheit einem Datentransfer innerhalb des eigenen Rechenzentrums entspricht.

    Analytik im Self Service Prinzip

    Wir sind Spezialisten im Bau und Betrieb der Analytic 3.0 Infrastrukturen auf Basis Open Source wie Hadoop/Spark für die Datenlagerung und Weiterbearbeitung, sei es bei uns oder bei Ihnen. Darüber hinaus bieten wir eine ganze Palette an Auswertetools an. Über die Analytik können wir die Informationen in die Anlagen rückkoppeln oder, was viel häufiger vorkommt, an das „Human Interface“ weitergeben. Denn der wichtigste Empfänger in Bezug „Informationen aus Daten“ ist immer noch der Mensch. Als Schnittstelle fungieren mobile Endgeräte oder normale Computer. So erhalten Sie eine Warnmeldung an Ihre E-Mail oder Ihr Smartphone, Sie haben die wichtigsten Kennzahlen in einem Dashboard immer bei der Hand oder Sie analysieren im Excel oder Web Ihre mehrdimensionalen Cubes und visualisieren die Resultate.

    Ungeahnte Zusammenhänge finden und damit neue Werte schaffen

    Wenn es sich um komplexere Auswertungen und Optimierungsaufgaben handelt, stehen Ihnen die „Data Scientists“ mit ihren prädiktiven und präskriptiven Auswertungstools zur Verfügung. Wir lernen aus den Zusammenhängen grosser unterschiedlicher Datenmengen. Aufgrund dieser stetigen Lernkurve werden Prozesse optimiert, Produktionsprozesse und auch ganze Geschäftsprozesse. Plötzlich gibt es ungeahnte Erkenntnisse, die Maschinen und Anlagen selber zu verbessern, und die Qualität der Produkte weiter zu steigern und die Kosten zu senken.

    So können Sie innerhalb kürzester Zeit aus der Gemeinsamkeit Ihrer Daten ganz neue Informationen holen, das Know How Ihrer Kernkompetenz erweitern und damit neue Werte für Ihr Unternehmen und Ihre Kunden schaffen!

    Wir bringen die unterschiedlichen Welten der Informatik und der Industrie zusammen, zur LeanBI Analytic Industry.

    Wie unterscheiden wir uns von einem Anbieter konventioneller Analytik und Business Intelligence?

    • Wir bündeln Informatik-, Ingenieur- und Analytik Wissen.
    • Wir sind mit unserem kleinen Team „lean“ und lösungsorientiert unterwegs.
    • Durch agile Methoden schaffen wir in kurzer Zeit Mehrwert aus Ihren Daten.
    • Wir haben uns auf die Auswertung grosser Mengen an Maschinendaten spezialisiert.
    • Wir bieten vom Konzept bis zum Betrieb alles aus einer Hand, inkl. Infrastruktur.
    • Wir bauen auf neuesten Konzepten Analytic 3.0 und Industry 4.0 auf. Damit beschreiten wir die neuen Wege von Simulation und Prognose.

    Wie unterscheiden wir uns von Anbietern Industrieller Automation mit integrierter Analytik?

    • Wir konzipieren auf Basis unserer LeanBI Methoden.
    • Basierend auf Open Source Technologien haben wir Zugriff auf eine wachsende Anzahl ausgefeilter Algorithmen.
    • Wir arbeiten zur Analyse mit dem Best of Breed Ansatz und haben damit Zugriff auf die neuesten und besten Analytic Tools.
    • Wir arbeiten im Bereich grosser Datenmengen und weisen entsprechende Infrastrukturen als Cloud Services auf.
    • Wir können auch Bild und Textdaten einfach speichern und auswerten.
    • Wir liefern mit unseren Produkten auch gerade die Analyse Kompetenzen mit.
    • Unsere Lösung kann in bestehende Automation-Systeme integriert werden.

    Um Weiteres zu erfahren, lesen Sie unser Whitepaper „Analytic Industry 4.0“.

    Analytic 3.0 und Industry 4.0 sollen heiraten, dann wird Analytic Industry 4.0 zum neuen Star

    Analytic 3.0: Nach Prädiktiver nun die Präskriptive Analytik

    analytics1
    Abb.1: Die Entwicklung der Analytic nach Davensport

    Analytic 3.0 gilt als Folgekonzept nach Big Data. Entwickelt wurde es in den USA von Prof. Thomas Davensport. Man fragt nicht nur „Was wird geschehen?“, im Sinne der prädiktiven Analytik, sondern auch „Warum wird es geschehen?“, im Sinne der präskriptiven Analytik. Aus „Was“ und „Warum“ ergeben sich neue Wirkungszusammenhänge und Insights in der Ursachen-Wirkungskette.

    Analytik 3.0 beinhaltet neben konventioneller BI Technik, neue Big Data Technologien, die das Streamen grosser Quantitäten von Live Daten in unterschiedlichsten Datenformate ermöglicht. Die Datenauswertung erfolgt über verteilte Infrastrukturen und In Memory Technologien mit Hilfe von Machine Learning und Data Mining Algorithmen. Im Gegensatz zum konventionellen Data Warehousing bestehen keine Grenzen bezüglich Datenformaten, und die Datenmodellierung vereinfacht sich drastisch.

    Im Zentrum von Analytic 3.0 steht der Algorithmus. Machine Learning Algorithmen sollen Informationen automatisch aus Daten extrahieren. Dies geschieht ohne Maschine-Mensch Schnittstelle. Um dies zu ermöglichen, werden die Algorithmen mit kleineren Datenmengen (von Menschen) antrainiert und Modelle gebildet. Teilweise sind die Algorithmen auch selbstlernend, d.h. im Laufe der Zeit verbessern sich die die Modelle und damit auch die Vorhersagen.

    Auch das eigentliche Data Mining hat innerhalb der Analytic 3.0 einen wichtigen Stellenwert. Hier steht jedoch immer eine konkrete Person im Entdeckungs- oder Vorhersageprozess. Typischerweise steht die Lösung eines konkreten komplexen Problems im Vordergrund. Man möchte zum Beispiel mit einer Mustererkennung Verständnis über einen komplexen Sachverhalt erhalten, auf den eine grosse Anzahl unbekannter Einflussfaktoren wirken. Data Mining bedient sich vieler Machine Learning Algorithmen und umgekehrt.

    Analytic 3.0 ist ein Zusammenspiel von Technologie und Mathematik. Es ist Realität und Zukunft zugleich. Analytic 3.0 wird seit vielen Jahren angewendet, gleichzeitig wird in vielen Universitäten und Unternehmen intensiv geforscht und entwickelt.

    Die Anzahl gebrauchsfähiger Algorithmen ist bereits heute schon sehr gross und ist einem starken Änderungsprozess unterlaufen. Jeden Tag kommen viele neue Algorithmen hinzu, bestehende werden verbessert. Ein Grossteil der Algorithmen ist öffentlich und kann über verschiedene Open Source Pakete wie R, Mahout, Weka, usw. bezogen werden. Andere Algorithmen sind in käuflichen Produkten gekapselt und damit proprietär.

    Damit die Algorithmen auf den Big Data Technologie optimal funktionieren (Verteilung auf CPU und RAM), wird weitere Software benötigt. Auch hier gibt es wiederum Open Source Möglichkeiten oder käufliche Softwareprodukte, die stetig weiterentwickelt werden.

    Eins ist klar: Die Möglichkeiten der prädiktiven und präskriptiven Analytik sind noch lange nicht ausgeschöpft.

    Industry 4.0: Die Informatisierung der Industrie

    analytics2
    Abb.2: Die Entwicklung der Industrie nach DFKI

    Industrie 4.0 als Deutsch/Europäisches Projekt seit 2011 beinhaltet die Informatisierung der Fertigungstechnik. Die für Industrie 4.0 notwendige Automatisierungstechnik soll durch die Einführung von Verfahren der Selbstoptimierung, Selbstkonfiguration, Selbstdiagnose und Kognition intelligenter werden und die Menschen bei ihrer zunehmend komplexen Arbeit besser unterstützen. Damit entsteht eine intelligente Fabrik (Smart Factory), die wandlungsfähig und ressourceneffizient ist, und sich optimal in die Geschäftsprozesse eine Unternehmung eingliedert.

    Die Gedanken der Industry 4.0 sind allgegenwärtig in der Schweizer Industrie, nicht nur in der Fertigungstechnik. Der Reifegrad der Schweizer Industrien bezüglich Industry 4.0 ist sehr unterschiedlich. Einige Vorreiter führen bereits Fernwartungssysteme, sodass irgendwo auf der Welt installierte Maschinen Daten an die Herstellerfirma liefern und so z.B. Wartungsprozesse rechtzeitig in Gang gesetzt werden können. Andere Betreiber vernetzen ihre über viele Standorte verteilten Anlagen oder ganze Fabriken so zentral, dass ihre Daten gemeinsam auswertbar sind. Aber auch diese Umsetzungen sind nur erste Schritte in eine Welt der Industry 4.0, denn das „Selbst“, also die logische und physikalische Vernetzung der Maschinen ist erst sehr punktuell am Wachsen.

    Ein wichtiges Element der Industry 4.0 ist die Entwicklung der Sensortechnik selbst. Beispielsweise liefern die Sensoren im Bereich „Machine Vision“ – also das Gebiet der Bilderfassung, auch im Wellenlängenbereich von IR und Röntgen – vollkommen neue Möglichkeiten der online Qualitätsmessungen, sind aber gleichzeitig sehr datenintensiv. Auch die Spektroskopie wird immer stärker direkt in die Prozesse eingebunden und liefert sehr grosse Datenmengen. Überhaupt zeichnen sich moderne Sensortechniken durch immer grössere Datenströme aus, die zu bewältigen sind.

    Aus unserer Sicht wird der Analytik innerhalb der Industry 4.0 noch zu wenig Aufmerksamkeit geschenkt. Analytic 3.0 und Industry 4.0 sind zu stark getrennte Welten. Warum? Beide Welten sind komplex und erst teilweise beherrschbar. Die Schnittmenge wird gross sein, nur fehlen heute die Kompetenzen, um beide Welten zu vereinen.

    Analytic Industry 4.0: A new Star is Born

    analytics3
    Abb.3: Mit der Cloud zur Analytic Industry 4.0

    Wenn wir nun die Schnittmenge beider Welten betrachten, dann dürfen wir dies als Analytic Industry 4.0 bezeichnen. Um diese Welten zusammenzubringen wird Cloud von grosser Wichtigkeit werden, denn schliesslich geht es um die Vernetzung von Daten an einem zentralen Ort. Analytic Industry 4.0 ist ein Teilgebiet der Industry 4.0 mit der Konzentration auf den analytischen Teil dieser 4. Industriellen Revolution. Zu welchem Zweck ein solches Teilgebiet? Gehen wir dafür zurück auf die Definition von Industry 4.0 und erkennen die Wichtigkeit der Analytik:

    • Selbstoptimierung: Die Selbstoptimierung des Fertigungsprozesses ist neben der physikalischen Maschinentätigkeit ein mathematischer Optimierungsprozess, der auf Daten basiert. Dahinter stecken nichts anderes als die beschriebenen Algorithmen aus dem Analytic 3.0.
      Die Selbstoptimierung hat zwei Aspekte. Einerseits geht es um die Optimierung des Fertigungsprozesses selbst. Daneben steht aber auch das Fertigungsprodukt im Fokus. Eine Selbstoptimierung des Fertigungsproduktes kann man als automatisierte Qualitätsoptimierung bezeichnen. Dafür bedarf es automatisierter Qualitätsmessungen, aus denen grosse Datenmengen entstehen, die zu verarbeiten sind. Damit hier rechtzeitig Informationen in den Produktionsprozess zurückfliessen können, sind grosse und performante analytischer Infrastrukturen notwendig.
    • Selbstdiagnose: Die Selbstdiagnose hat den Zweck frühzeitig mögliche Maschinenausfälle zu detektieren. Dies geht über die Benachrichtigung von Schwellwertinformationen weit hinaus. Erst mit der Kombination von Messdaten, deren algorithmischer Bearbeitung und Rückführung der daraus abgeleiteten Informationen in den Produktionsprozess zur weiteren physikalischen Bearbeitung, kann eine Selbstdiagnose erfolgen.
    • Kognition ist die Gesamtheit der geistigen Aktivitäten im Zusammenhang mit Denken, Wissen, Erinnern und Kommunizieren. Wie beim Menschen das Gehirn benötigt es auch in der Industrie einen Datenpool als Basis, aus dem Wissen generiert wird. Die Basis sind die (Cloud)- Infrastrukturen von Analytic 3.0.

    Es geht also darum, Analytic 3.0 auf die laufende 4. Industrielle Revolution auszurichten. Betroffen ist nicht nur die Fertigungstechnik, sondern auch die Lagertechnik, Verfahrenstechnik, Klimatechnik und Energietechnik. Sowohl die Daten- Infrastrukturen, die Algorithmen, die Tools sind Spezifika dieser Industrien und müssen erarbeitet sein. Eine grosse Rolle dabei wird aus unserer Sicht die Open Source Bewegung spielen. Wir glauben, dass über die bestehenden und neuen Open Source Projekte im analytischen und Big Data Bereich das Ziel einer Industry 4.0 am schnellsten erreicht wird. Die Open Source Initiativen generieren neue Produkte für die Analytic Industry 4.0. Wie ein solches Produkt LeanBI Analytic Industry aussieht, zeigen wir im nächsten Blog.

    Um Weiteres zu erfahren, lesen Sie auch unser Whitepaper „Analytic Industry 4.0“.

    Das war ein toller Event!

    Unser Event vom 30. März im Schweizerhof war ein voller Erfolg. Wir haben von allen Seiten nur positives Feedback erhalten. Unsere Formel ist stringent und überzeugt in allen Belangen, unser Geschäftsmodell trägt Früchte. Das ist es, was mittlere Unternehmen benötigen, um mit Daten Ihren Geschäftserfolg zu steigern.

    leanbi-neue-formel-2
    das-war-ein-toller-event-1
    das-war-ein-toller-event-2