Peakboard und LeanBI gehen eine Partnerschaft ein

Wir freuen uns, Ihnen unsere Partnerschaft mit Peakboard, dem innovativen Visualisierer von Daten bekannt zu geben. Peakboard passt optimal zur LeanBI und zum LeanBI Slogan „agil-schnell-einfach“.

  • Agil: Kommt mit minimalen IT Infrastrukturen aus
  • Schnell: In wenigen Stunden produktionsbereit
  • Einfach: Dashboards können durch Fachpersonen erstellt werden

Damit ist Peakbaord ist nicht nur für Grossbetriebe sondern auch für KMUs unkompliziert einsetzbar.


Ob Andon Boards, Corporate Digital Signage oder Dashboarding. Mit Peakboard ist die Visualisierung von Prozessen, Daten und Kennzahlen auf Displays im Unternehmen in kürzester Zeit erstellt.

Peakboard ist eine intelligente und wartungsarme Industrielösung, um operative Daten aus unterschiedlichen Quellen auf Displays in Echtzeit zu visualisieren. Diese Daten werden dem Werker in Produktion und Logistik als Dashboards zur Verfügung gestellt. Peakboard besteht aus einer Hardware-Komponente, die das Echtzeitdashboard speist und im lokalen Netzwerk kommuniziert und einer Design-Komponente, mit der die Dashboards vom PC aus erstellt und auf die Peakboard Box geladen werden.

Abb 1: Vernetzung von Peakboard mit Maschinen und Ihren IT Systemen (ERP, CRM, Planung, usw.)

Jede Peakboard-Box kommuniziert mit den verbundenen Systemen im lokalen Netz oder im Internet ausschließlich dann, wenn der User dies so wünscht und so konzipiert hat. Das bedeutet, dass weder Peakboard noch Drittfirmen Nutzerdaten sammeln. Die Daten bleiben damit immer im sicheren Firmennetzwerk.

Anwendungen finden sich über die gesamte Wertschöpfungskette der Industrie: Von der Logistik über die Sales Abteilung hin zur Produktion (Shopfloor Management) sowie Administration und IT.

Abb 2: Anwendungsbeispiele von Peakboard

Wie Sie wissen, hat sich die LeanBI der Prozess- und Service-Optimierung im industriellen Umfeld verschrieben. Peakboard integriert sich nahtlos in unsere Dienstleistungen. BI (Business Intelligence), AI (Artificial Intelligence) und ML (Machine Learning) werden erst mit Front Ends wie Peakboard zum Leben erweckt. So wird mit Peakboard z.B. unser Predictive Maintenance Lösung visualisiert. Hier ein Beispiel aus den Peakboard Referenzen:

Mit Peakboard konnten wir unseren Reparaturprozess nun auch ‚auf dem letzten Meter‘ – der Visualisierung – digitalisieren und damit einen weiteren Schritt in Richtung ‚Industrie 4.0‘ gehen“

.Oliver Herz, Leiter der Anwendungsentwicklung, MUNSCH-Unternehmensgruppe

Wollen Sie mehr zu Peakboard wissen oder wünschen Sie eine Demo, wir kommen gerne bei Ihnen vorbei.

Hier finden Sie auch mehr Informationen zu unserem Partner: https://peakboard.com/

Wir freuen uns und schauen der neuen Partnerschaft mit Peakboard mit Spannung und Enthusiasmus entgegen.

Konferenz Perspektiven mit Industrie 4.0 – Von smarten Produkten zu neuen Service-Modellen: Neues Business mit neuen Ansätzen

Konferenz Perspektiven mit Industrie 4.0

Am Mittwoch, 5. September 2018 findet wie letztes Jahr die Konferenz Perspektiven mit Industrie 4.0 statt, welche von der ZHAW, Industrie 2025 und Swiss Alliance for Data-Intensive Services organisiert wird. Letztes Jahr war ein voller Erfolg und dieses Jahr werden noch mehr Besucher erwartet.

 

Digitalisierung und Industrie 4.0 sind eine Herausforderung für Schweizer KMUs – gleichzeitig liegen hier riesige Chancen. Smarte Produkte eröffnen neue Märkte und ermöglichen neue und innovative Geschäftsmodelle, oft in Form von neuen Services.

 

Speziell im Fokus der Konferenz steht die Frage, wie man in einer digitalisierten Welt neue Produkte und Services entwickeln kann. Es werden die Erfolgsfaktoren wie Produktentwicklung von smarten Produkten und deren Produktion Service-Design Geschäftsmodell-Entwicklung, Technologie-Einsatz und Organisation erläutert.

 

Das ist genau das Thema von LeanBI und darum treten wir hier als Gold Sponsor der Veranstaltung auf. Besuchen Sie diese spannende Konferenz. Gerne begrüssen wir Sie auch bei uns am Stand.

 

Hier geht es zur Anmeldung:

https://www.xing.com/events/konferenz-perspektiven-industrie-4-0-1875036

 

und hier zu weiteren Informationen der Veranstaltung:

https://www.zhaw.ch/de/engineering/ueber-uns/veranstaltungen/perspektiven-mit-industrie-40/

 

 

 

 

41. Face to Face Meeting | Industrie 4.0 – Risiken und Massnahmen bei einer Vernetzung der Produktion der Berner Fachhochschule Burgdorf

Face to Face Meeting - Industry 4.0

Die Berner Fachhochschule in Burgdorf hatte am Freitag, 29.6.2018 zum Industrie 4.0 Face to Face eingeladen. Zu einem sehr wichtigen Thema.

 

Stellen Sie sich vor, ein Kryptovirus wird in die Produktion eingeschleust und verschlüsselt ihre gesamte Produktionssoftware. Ein riesen Schaden, wenn Ihre Anlagen plötzlich nicht mehr verfügbar sind! Ist Ihre Produktionssoftware dagegen gut genug geschützt? Im Impulsvortrag von Prof. Felser wurde sehr schön aufgezeigt, wo die heutigen grössten Risiken bei der Vernetzung der Produktion liegen.

 

Top 10 Bedrohungen und Gegenmassnahmen 2016

Diese Tabelle zeigt, wie die Bedrohungsszenarien aussehen. An erster Stelle stehen Social Engineering, Pishing und Einschleusen von Malware über Wechselträger (Nr. 1 und Nr. 2). Hier ist Ausbildung der Mitarbeiter zu genau diesem Thema angesagt, und behalten Sie Ihre Software immer auf dem neuesten Stand. Verhindern Sie auch, dass fremde Computer oder USB-Sticks in Ihr Produktionsnetzwerk gelangen (wie bspw. bei externen Wartungszwecken). Auch bei Einbindung von Mobile Phones ist absolute Vorsicht geboten.

 

Dass die Infektion über das Internet „erst“ an dritter Stelle folgt, ist nachvollziehbar. Wir gehen davon aus, dass dies sogar noch nach hinten rutschen wird. Sehr hohe Sicherheit erhalten Sie hier, wenn der Datentransfer eine Einbahnstrasse nach aussen ist. Auch können Sie via VPN (Virtual Private Network) und Entkopplung via Gateways Ihr Netzwerk ganz abschotten. Dann kann auch ein Fernwartungsthema umgesetzt werden.

 

Die Normen wie IEC 62443 (Industrial Communication Networks- Network und System Security) helfen Ihnen bei Sicherheitsfragen. Nur sind diese Normen zwischenzeitlich sehr umfangreich und immer im Fluss. Auch hilft das BSI Lars Handbuch.

 

Die Vernetzung der Produktion ist ein unabdingbarer Schritt der Modernisierung und Digitalisierung. Es gibt wohl keine Produktion, wo dies nicht schon im vollen Gang ist. Das Bedrohungs-Risiko steigt, wenn diesen möglichen Bedrohungen nicht genügend Stellenwert beigemessen wird.

 

Nun zu einem ganz anderen Thema: Begeistert war ich auch von den Bachelor Abschlussarbeiten, die uns nach dem Essen während einer Poster-Ausstellung von den Studenten direkt gezeigt wurden: Besonders beeindruckt haben mich natürlich die Digitalisierungsthemen: Intelligent gesteuerte Strassenlampen (Nathanael Josua Berger und Nicola Damien Vaucher) und eine nachgelagerte Verkehrsanalytik. Dies mit Bluetooth 5.0 zu machen ist neu und macht Sinn. Im Gegensatz zu LORA Netzwerken, kann hier mit viel höheren Datenraten gearbeitet werden. Auch bei vernünftigen Preisen. Eine tolle Arbeit!  Predictive Maintenance für einen Trocknungsturm (Christian Morf). Ein Thema, dass uns natürlich besonders interessiert. Ausgeführt für die Firma Küffer AG und Naturex AG. Die Machbarkeit konnte konzeptionell und mit einem kleinen Piloten bewiesen werden. Predictive Maintenance ist und bleibt ein grosses Thema. Und zu guter Letzt der IoT Parkplatzsensor (Loris Kerim Leroy Knutti und Marc Philipp Saegesser). Eine Thematik mit der die BFH ja schon länger unterwegs ist. Neu ist hier der wireless aufladbare Akku. Ein Öffnen der Apparatur zum Batteriewechsel wird damit obsolet.

 

Natürlich gab es noch viele weitere tolle Arbeiten, dies würde den Blograhmen aber leider sprengen. Ich bin begeistert, was Studenten heute in wenigen Wochen nicht nur konzeptionell sondern hemdsärmelig erarbeiten können! Danke herzlichst für diesen spannenden Nachmittag in Burgdorf.

 

Predictive Maintenance im Schweizer Post-Verteilzentrum mit LeanPredict

Unser Innosuisse Projekt LeanPredict, bei welchem LeanBI Hauptumsetzungspartner ist, macht Fortschritte. Die Hochschule für Technik Rapperswil HSR, unser Hochschulpartner gemeinsam mit der FHS St. Gallen, hat dazu einen Artikel verfasst, den wir Ihnen in diesem Blog gerne zur Verfügung stellen. Wir setzen im Projekt mit unserem Anwendungspartner der Schweizerischen Post und drei weiteren Partner (Neratec AG, Küffer AG, acs AG) eine modulare Predictive Maintenance Lösung um, die im intralogistischen Bereich Verbreitung finden wird.

 

Hier kommen Sie   https://issuu.com/hsrpublishing/docs/hsr_magazin_1.2018/34 auf den Zeitschriftenartikel

 

Hier können Sie den Bericht herunterladen: LeanPredict bei der Post

Halle Kippschalen

Predictive Maintenance: Wie starten?

Uns fragen regelmässig Maschinen-, Anlagenbauer und Hersteller wie ein Predictive Maintenance Projekt zu starten ist. Leider gibt es hierfür kein allumfassendes Rezept, aber eine Richtschnur sehr wohl.

Warum is Predictive Maintenance wichtig

  1. Machen Sie einen Plan

Ein rein technischer Ansatz sollte vermieden werden: Zuerst einmal alle möglichen Daten der Maschinen oder Anlagen in eine Datenbank oder Filesystem zu schreiben ist nicht unbedingt der beste Weg. Einen solchen Big Data Ansatz sehen wir als überholt an, und glücklicherweise stimmen zwischenzeitlich auch viele Beratungshäuser dem zu. Smart Data ist angesagt.

Machen Sie zuerst einen Plan. Sitzen Sie in einem interdisziplinären Team (Technologie, Produkt Management, Produktion, F&E) zusammen und besprechen, was Ziele, Nutzen und Anforderungen an ein Predictive Maintenance sind. Vergessen Sie dabei nicht die zentralen kommerziellen Ziele und betrachten Sie die Machbarkeit. Häufig dreht eine vermeintlich unmachbare Situation (z.B. der Kunde wird seine Daten nicht herausgeben) in eine Relativierung und dann sogar in eine positive Stimmung um. Aber beginnen Sie mit Bedacht und mit der Philosophie der kleinen Schritte.

  1. Nutzen Sie die Erfahrungen und Daten Ihrer Firma

Fangen Sie damit an, Störungs- und Servicedatenbanken auszuwerten. Häufig sind Informationen aus diesen Datenbanken unstrukturierte Texte, aber mit heutigen Textmining Tools lassen sich diese trotzdem recht einfach analysieren. Ideal ist, wenn Sie hier Daten von 3 bis 5 Jahren Datenhistorie aufweisen können. Werden Komponenten nicht aufgrund von Verschleiss- sondern wegen Vorgaben des Wartungsplans ausgewechselt, dann sind Informationen zum Zustand dieser Komponenten nützlich. Oft ergeben sich aus dieser Auswertung sehr aufschlussreiche Informationen, wo bereits Projektpotential vorliegt.

Priorisieren Sie die Wichtigkeit der Störungen. Einflussfaktoren sind dabei Anlagenverfügbarkeit, Komponenten- und Wartungskosten.

LeanBI Vorgehensmethodik Einführung von Predictive Maintenance

Betrachten Sie dann zuerst nur die wichtigen Störungsfälle und eruieren Sie die Anlagendaten, die einen solchen Störungsfall messen oder prognostizieren können. Auch das ist ein Workshop-Thema, wo Ihr und unser Expertenwissen miteinfliesst: Kann voraussichtlich mit der kombinierten Auswertung bestehenden Analagendaten bereits ein Störungsfall gemessen oder auch prognostiziert werden? Wie schnell muss in den Prozess eingegriffen werden, damit ein Störungsfall vermieden werden kann? Was ist die Taktfrequenz der Messdatenerfassung, damit eine Anomalie erkannt wird? Solche Fragen können häufig bereits aufgrund Erfahrung und physikalischem Wissen abgeschätzt werden und benötigen keine Testläufe.

  1. Condition Monitoring kann ein Zwischenschritt sein

Condition Monitoring misst den aktuellen Zustand Ihrer Anlage. Das ist Bedingung für eine zustandsorientierte Instandhaltung. Condition Monitoring ist im eigentlichen Sinn noch keine prädiktive Überwachung. Spontane und zukünftige Ausfälle können damit nicht ermittelt werden. Condition Monitoring ist kein zwingender, aber ein möglicher Zwischenschritt zu einer vorausschauenden Wartung (Predictive Maintenance). Er macht Sinn, wenn die prädiktive Wartung einen hohen Komplexitätsgrad aufweist und die Machbarkeit als schwierig eingestuft wird.

  1. Make or Buy?

Sehr wichtig ist die «Make or Buy» Frage. Es gibt bereits eine grössere Anzahl von Predictive Maintenance Anbieter auf dem Markt. Das sind in den weitaus meisten Fällen Cloud Angebote, die mit IoT Dienstleistungen kombiniert werden (teilweise über 2 bis 3 Hersteller hinweg). Gerade aber in der Maschinenindustrie sind solche Angebote nicht optimal. Diese werden häufig auf das «Make» zurückgreifen. Wir können auch hier gute Ratschläge geben, wann der Einsatz kommerzieller Lösungen Sinn macht.

  1. Halten Sie den Business Case kurz und bündig

Rechnen Sie den Business Case grob durch. Berücksichtigen Sie auch qualitative Schlüsselfaktoren. Zum Beispiel kann ein «Predictive Maintenance Service» ein verkaufsunterstützender Aspekt einer Maschine sein, auch wenn dieser Service anfänglich nicht vom Kunden gekauft wird. Auch hier gilt wieder, dass ein solcher Business Case kurz und bündig sein sollte.

  1. Gehen Sie schnell in einen Proof of Concept

All diese obengenannten Punkte sollten in wenigen Tagen machbar sein. Machen Sie daraus keine Doktorarbeit. Gehen Sie lieber früher als später in einen Proof of Concept. Nehmen Sie dabei die dringlichen, machbaren und nützlichen Maintenance Use Cases zuerst. Für den Prototyp muss noch keine Online Anbindung vorhanden sein. Für die käuflichen Predictive Mainenance Produkte mag dies aber Sinn machen. Meistens reicht es aus, wenn die Daten Offline auf einer Data Science Plattform ausgewertet werden. Der Prototyp klärt die Frage, ob sich auf der Datenbasis ein statistisches Modell (Artificial Intelligence (AI) & Machine Learning Modell) aufbauen und sich damit die Anomalie gut erkennen lässt. Kann die Anomalie eine Maschinenkomponente zugeordnet werden? Wie früh trifft die Anomalie auf? Kann ein Schaden damit verhindert werden?

Nicht überall muss das Rad neu erfunden werden. Bei einer Reihe von Standardkomponenten bestehen dazu Erfahrungen oder in den käuflichen Tools bereits Modelle. Der Reifegrad der Lösungen auf dem Markt ist sehr unterschiedlich. Besonders günstige Lösungen leisten häufig nicht, was sie versprechen. Achten Sie darauf, dass Sie ein offenes System beziehen, dass sie die Daten über eine Schnittstelle automatisiert auslesen können. Die Daten gehören Ihnen und müssen in allen Transformationszuständen einfach exportierbar sein. Dazu mehr in einem späteren Blog.

  1. Optimieren Sie in Richtung Decision Support System

Ist der Prototyp erfolgreich, gehen Sie in eine Testproduktion. Das kann ein Testkunde sein oder ein spezifischer Case in der Produktionsanlage. Sammeln Sie Erfahrung, optimieren sie das Modell und erweitern Sie die Vorhersage in Richtung Entscheidungshilfe und Wartungsplaneinbindung. Dann kann ein solcher Service innerhalb der Firma und/oder an Ihre Kunden verkauft werden. Ein präventive Wartungsplan wird so nicht über den Haufen geworfen, sondern geht stetig, mit Bedacht, aber unabdingbar in eine zustandsorientierte und vorausschauende Wartung über.

Diese Blog ist der erste Teil unserer neuen LeanBI Reihe zum Thema Predictive Maintenance. Weitere Blogs der nächsten Wochen besprechen folgende Themen:

  • Predictive Maintenance: Was gibt es auf dem Markt?
  • Predictive Maintenance für Motoren und Lager
  • Predictive Maintenance: Quo Vadis?
  • Predictive Maintenance: Die Algorithmen

IoT für die Lagerlogistik: Stöcklin DMA, Data Monitoring und Alerting

Auch in der Intralogistik wird IoT und Predictive Maintenance zu einem signifikanten Wettbewerbsvorteil. Die Schweizer Firma Stöcklin Logistik AG spielt eine Vorreiterrolle auf dem Gebiet Industrie 4.0. In Zusammenarbeit mit stemys.io durften wir für die Stöcklin Logistik AG in einem Zeitraum von 4 Monaten ein sehr erfolgreiches Data Monitoring und Alerting Projekt umsetzen.

Ausgangssituation

Als Anbieter von Intralogistiksystemen und logistischen Gesamtlösungen ist Stöcklin Logistik AG entlang der ganzen Wertschöpfungskette Logistik am Markt präsent und verbindet Mechanik, Steuerung und Informatik.

Stöcklin möchte seine Kunden mit neuen datengetriebenen und analytischen Services bei der Produktivitätssteigerung unterstützen. Dafür wird eine DMA-Data Monitoring und Alerting Plattform aufgebaut. Die Plattform ist Grundlage neuer, innovativer Dienstleistungen der Stöcklin Logistik AG auf Basis von Big Data und Machine-Learning.

Projektziele

  • Aufbau einer Big Data-In Memory Infrastruktur
  • Jeder Kunde sieht nur seine Daten
  • Die Lösung kann auch beim Kunden laufen
  • Hoch skalierbare Infrastruktur
  • Die Datensicherheit muss stets gewährleistet sein
  • Moderne Alarmierung und Dashboard Services auch auf mobilen Endgeräten

Ausgangssituation

  • Frühzeitige Stillstandprognose mit vorausschauender Wartung (Predictive Maintenance)
  • Rollenbasierte Information mit Hilfe kontinuierlicher Prozessvisualisierung und -optimierung
  • Erhöhung der Anlagenverfügbarkeiten über proaktives Event-Monitoring
  • Optimierung des Energie- Managements der logistischen Anlagen

Lösungsweg

  • Erarbeitung der IoT-Architektur und Definition der Dashboards in gemeinsamen Workshops
  • Erstellung und Freigabe eines Umsetzungskonzeptes
  • Gemeinsame Umsetzung der Lösung auf auf der stemys.io Entwicklungsumgebung und Produktivsetzung in der Stöcklin Cloud

Die Sucess Story kann hier heruntergeladen werden: Success Story with Stöcklin (PDF download)

IoT und Predictive Analytics: Fog und Edge Computing für Industrien versus Cloud (19.1.2018)

Bild: ESG Research 2016

Warum nicht immer Cloud?

Von unseren industriellen Kunden wird immer wieder angezweifelt, ob die Cloud der richtige Weg sei, um IoT und Predictive Analytics in Industrieprozessen, Produktionsanlagen und Maschinenparks zu implementieren. Einige Gründe sprechen dafür, einige aber auch dagegen:

IoT und Predictive Analytics in der Cloud: Was spricht dafür?

  • Aus der Cloud können Prozesse zentral überwacht werden. Mit den Daten lassen sich die Prozesse optimieren und besser betreiben. Die Informationen aus den Prozessen können zudem in die Produktentwicklung einfliessen.
  • In der Cloud sind die Daten zentral in einer Datenbank abgelegt und können für zukünftige aktuell noch unbekannte Analysen umfassend eingesetzt werden (Data Pool, Single Source of Truth).
  • Komplexe Algorithmen mit grossen Datenmengen können auf schweren Big Data Infrastrukturen ausgeführt werden (z.B. auf Hadoop oder MPP-Massive Parallel Processing Infrastrukturen). Es bestehen keine Limiten bezüglich CPU und RAM.
  • Die Daten können über eine zentrale Einheit zwischen den „Things“ ausgetauscht werden. Das bringt strukturierten Informationsaustausch mit sich (im Gegensatz zur sog. Spagetti-Vernetzung).
  • Das Thema Datensicherheit kann zentral angegangen werden und muss nicht dezentral für jede Einheit separat gelöst werden.

IoT und Predictive Analytics in der Cloud: Was spricht dagegen?

  • Die Daten verlassen das Netzwerk des Industrieprozesses (zum Beispiel des Herstellprozesses), was nicht von allen Kunden akzeptiert wird. Es besteht das potentielle Risiko, dass Prozess Know-How abgesaugt wird.
  • Über die Cloud kann ein Angriff auf die Daten der Firma oder sogar auf die Anlagen selbst erfolgen (Cyber Security). Ein zentrales Element wie z.B. die IoT Plattform eines grossen Providers ist grösser und bekannter; somit ist das Interesse und die Gefahr, dass ein solcher Punkt angegriffen und gehackt wird, viel grösser.
  • Die Latenzzeit zwischen Maschine und Cloud beeinträchtigt den Eingriff im Millisekunden-Bereich (Real Time oder Near Real Time Applikationen). Viele Use Cases im Machine Learning und im datenanalytischen Bereich können so nicht oder nur eingeschränkt funktionieren.
  • Die Bandbreite des Netzwerkes ist oft nicht ausreichend, um die grossen Datenmengen zu übertragen.
  • Das Netzwerk kann ausfallen, die Verfügbarkeit der Applikation ist dann nicht sichergestellt. Im schlimmsten Fall kann sich das auf die Anlagenverfügbarkeit auswirken.
  • Bei grossen Datenmengen kann eine Cloud wie z.B. MS Azure IoT, Predix, Mindsphere, Amazon AWS, Google Cloud, usw. sehr teuer werden, da die Lizenzmodelle mengenspezifisch aufgesetzt sind.

Was ist Edge und wann wird es verwendet?

Ziel neuer Konzepte ist es, die Geräte und Sensoren in der Edge (im Deutschen am besten mit Rand übersetzt, in unserem Fall mit Industrieanlagen) oder in der Fog (d.h. im Industrienetzwerk) intelligenter zu machen, so dass die Kommunikation nicht nur von und zu der Cloud, sondern – wo sinnvoll – wieder zwischen den Geräten selbst stattfindet.

Warum also nicht Applikationen wie Predictive Maintenance direkt auf der Maschine ausführen? Dabei lassen sich Micro-Controllers einsetzten, die aber bezüglich Speicher und RAM beschränkt sind. Solche kleinen Prozessoreinheiten kommen dann auf Raspberry Pi’s, Onion Omega 3 oder ähnlichen Fabrikaten zum Einsatz, die kleine und kostengünstige IoT Umgebungen zur Verfügung stellen. Diese Einheiten weisen wichtige Schnittstellen wie WiFi, Bluetooth und USB auf, die Leistungen sind aber rechtgering, ein Raspberry Pi Zero W verfügt über z.B. 1 GHz CPU und 512 MB Storage bei einem Preis von 10$ pro Einheit.


Bild 1: Micro Controllers und Raspberry Pi‘s

Damit auf diesen Systemen Algorithmen laufen können, müssen die Algorithmen sehr «leicht» gemacht sein, was häufig nicht möglich ist.

Was ist also die nächst grössere Einheit an Compute Technologie? Heute lassen sich auch sogenannte SoC (System on a Chip) Bauelemente einsetzen. Diese besitzen sehr viel höhere Leistungsdichten bei gleichzeitig geringem Platzbedarf. Diese sind bezüglich Hardwarekosten recht günstig, müssen aber speziell für den Einsatz entwickelt werden, was dann wiederum mit Entwicklungskosten verbunden ist.

Bild 2: Beispiel einer SoC Technologie

Einsatz finden solche Systeme angefangen bei mobilen Telefongeräten bis hin zu Recheneinheiten in Cloud Centern. Die Leistungen gehen entsprechend bis 54 Cores hoch, 3 GHz, 512 GB RAM, 1 TB Storage und 100 Gbps Bandbreite, sind aber mit einigen 100 $ auch einiges teurer als die Micro Controllers und Raspberry Pi‘s.

Warum braucht es Fog Computing?

Natürlich könnten wir auch einen Server an eine Maschine stellen, welcher bis zu 176 Cores, 2 TB RAM und 460 TB Storage ausweist. Die Hardware Kosten würden dann aber dramatisch zunehmen und wir müssten uns die Frage stellen, wie teuer eine maschinennahe analytische Einheit sein darf. Dies ist natürlich abhängig von dem Preis der Maschine selber, aber in vielen Fällen lohnt sich dies vermutlich nicht.

Fog arbeitet mit der Cloud, während der Edge durch den Ausschluss der Cloud definiert wird. Fog arbeitet hierarchisch, wogegen Edge auf eine kleine Anzahl von Schichten beschränkt ist. Fog befasst sich neben der Berechnung auch mit Vernetzung, Speicherung, Steuerung und Beschleunigung. Mit Fog Computing kann daher eine interessante und preisgünstige Zwischenlösung zur Cloud geschaffen werden. Mit Fog wird die Rechenleistung an die Peripherie der Netzwerke gedrückt und damit für eine Gruppe von „Dingen“ zwischen Edge und Cloud ausgeführt.

Bild 3: Darstellung der Fog Architektur

Fog: Ein Architekturkonzept

Fog ist zuerst einmal ein Architekturansatz, zweitens eine Software und Drittens eine Hardwarekomponente. Der Ansatz ist noch recht neu, stammt aus den Jahren 2014, im 2015 wurde von einigen wichtigen Exponenten wie Cisco, Intel, Dell, Microsoft und Princeton University das Open Fog Konsortium gegründet. Im Februar 2017 ist dann das erste Architekturkonzept publiziert worden, welches hier eingesehen werden kann:
https://www.openfogconsortium.org/wp-content/uploads/OpenFog_Reference_Architecture_2_09_17-FINAL.pdf

Die Publikation ist noch nicht sehr konkret und man muss sich durch 162 Seiten Paper kämpfen. Trotzdem lohnt sich eine Sichtung des Dokuments, und ohne hier genauer darauf einzugehen, ist für uns folgende Zusammenarbeit von Edge, Fog und Cloud essentiell.

Das Machine Learning (ML) Modell wird auf einer Data Science Plattform entwickelt. Das kann Offline oder in der Cloud geschehen. LeanBI setzt dafür als Plattform Dataiku ein. Das ML Modell wird dann auf eine produktive Plattform exportiert. Je nach den Anforderungen läuft dann das ML Modell auf der Edge, in der Fog oder direkt in der Cloud. Der Trainings-Task zur Modell-Optimierung wird in der Regel an die Cloud abgegeben, da dieser Task rechenintensiv ist und eine breite Datenbasis benötigt. Das Modell wir damit periodisch in der Cloud mit neuen Daten optimiert, um dieses verbesserte Modell dann auf die Fog oder Edge periodisch anzuwenden. Prinzipiell lässt sich dieser Trainings-Task auch offline ausführen, je nachdem, wie häufig dieser stattfinden muss.

Fog: Ein Stück Software

Die Softwarelandschaft rund um Edge und Fog Computing ist momentan noch recht übersichtlich. Dabei ist der Funktionsumfang teilweise sehr unterschiedlich. Cloud Anbieter wie MS Azure IoT, Predix, AWS oder IBM Watson haben im 2016/2017 Edge/Fog Komponenten lanciert (meistens als Open Source), um besonders als Bindeglied zwischen der Edge und der Cloud zu wirken. Dabei werden Funktionalitäten bereitgestellt, die das Machine Learning Modell auf der Edge laufen lassen. Hier drei Beispiele dafür:

AWS Greengrass: https://aws.amazon.com/de/greengrass/

Azure IoT Edge: https://azure.microsoft.com/de-de/services/iot-edge/

IBM Edge Analytics: https://console.bluemix.net/docs/services/IoT/edge_analytics.html#edge_analytics

Was Data Preparation, Data Cleansing und Data Processing auf der Edge/Fog anbelangt, sind diese Lösungen noch sehr programmieraufwändig. Die Lösungen sind nicht unabhängig von der Cloud Lösung einsetzbar. Dann gibt es jene Software Lösungen, die unabhängig vom Cloud Provider Edge und Fog Computing möglich macht. Foghorn, ein Silicon Valley Start Up Unternehmen, ist ein Beispiel dafür.

Foghorn: https://www.foghorn.io/technology/

Foghorn bietet die Möglichkeit der Datenaufbereitung und einer sehr schnellen Ausführungs- Engine, der sogenannten CEP Engine. CEP bedeutet Complex Event Processing und beinhaltet verschiedene Methoden, um Logik möglichst in Real Time abzuhandeln. CEP kann innerhalb von Docker betrieben werden und läuft damit auch direkt auf der Edge. Meistens läuft die Software nicht auf den Endpunkten der Anlagen, sondern auf den physischen Gateways.

Fog: Ein Stück Hardware

Die physischen Gateways bringen den Vorteil mit sich, dass Software immer noch Nahe der Anlage läuft, gleichzeitig aber ein ganzes Bündel an Maschinen und Anlagenpunkten bedient werden können. Netzwerkmässig läuft die Software damit noch im Automatisierungsnetzwerk, also abgekoppelt von der Cloud, der Datenaustausch findet über die Standard-Konnektoren der Gateways statt. Wichtige Daten können aber von diesem Punkt einfach der Cloud zur Verfügung gestellt werden.

Um einen Eindruck über die Leistungsfähigkeit heutiger Gateways zu erhalten, hier einige Beispiele:

Hilscher Gateway „On Premise“ https://www.hilscher.com/fileadmin/cms_upload/en-US/Resources/pdf/netIOT_Edge_DS_Datenblatt_10-2015_DE.pdf

Weist zu den Maschinen hin die wichtigen Feld- und IoT Protokolle auf: Profibus, Profinet, Modbus, MQTT, OPC-UA und andere. Leistungsmässig bis 2 GHz, 4 GB DDR3 RAM und 128 GB SSD. Physische Trennung von Automatisierungs- und Cloud Netzwerk aus Gründen der Security.

Dell Edge Gateway der 5000 Series

http://www.dell.com/ch/unternehmen/p/dell-edge-gateway-5000/pd
Als Vergleich dieses Dell Edge Gateway, welches etwas schwächere Leistungsdaten 1.33 GHz, 2 GB DDR3 RAM und 32 GB SSD in der gleichen Preisklasse von ca. 1000 $.

HP stellt sowohl Mittelklasse als auch High End Gateways her. Hier eine Mittelklasse Ausführung

HP Gateway: HPE GL20 IoT Gateway

https://www.hpe.com/us/en/product-catalog/servers/edgeline-systems/pip.hpe-edgeline-el20-intelligent-gateway.1008670391.html

Intel® i5 CPU, 8 GB RAM, 64 GB SDD Storage
Aber auch eine High End Ausführung wie folgendes System zu haben:


HPE Edgeline EL1000 Converged Edge System

https://www.hpe.com/us/en/product-catalog/servers/edgeline-systems/pip.hpe-edgeline-el1000-converged-edge-system.1008670396.html

Mit bis zu 16 Cores und 4 TB Disc Storage lassen sich hier schon sehr schöne analytische Lösungen betreiben.

Zusammenfassung und Fazit

Zukünftige analytische Lösungen werden weder nur auf der Maschine noch nur in der Cloud betrieben werden. Immer häufiger werden stattdessen Fog Architekturen die passende Lösung sein.

Hier kommen Kombinationseinsätze von physischen Gateways und Cloud Plattformen zum Einsatz, eine kostengünstige Form zur Umsetzung analytischer Lösungen nahe der Maschine oder Anlage bei gleichzeitiger optimaler Nutzung von Compute Ressourcen in der Cloud.

Welche Herausforderungen verbleiben?

  • Die IoT/Edge & Fog Lösungen sind neuem Datums und zur Zeit einer starken Entwicklung unterworfen.
  • Es ist immer zu definieren, welche Daten in die Cloud gegeben und welche Daten in der Edge und Fog verbleiben.
  • Storage, CPU und Kostengrenzen in der Edge/Fog.
  • Modellbildung an einem Ort – Ausführung und Verteilung an mehreren Orten.
  • Standards für Peer to Peer Lösungen sind noch nicht genügend vorhanden.

Rückblick auf die F&E Konferenz Industrie 2025 vom 15.1.2018 in Brugg Windisch



Über 200 Teilnehmer lauschten an der F&E Konferenz 2018 der Industrie 2025 und SwissMem den diesjährigen Forschungs- und Entwicklungsvorhaben, mehrheitlich vorgetragen durch die Schweizer Hochschulen. Doch hinter vielen dieser Projekte stehen tatsächlich industrielle Firmen wie z.B. Geberit, Elpro, Agathon und Dividella.

Besonders spannend war für uns natürlich alles rund um die Themen AI, Machine Learning und Predictive Analytics. Und da gab es Einiges mehr als noch vor einem Jahr. CSEM stellte ihren Deep Learning Algorithmus vor (siehe Eingangsbild), die HSR mit Prof. Christian Bermes unser leanpredict, ein CTI Gemeinschaftsprojekt zusammen mit dem Anwendungspartner Post Schweiz AG.



Prof. Klaus Frick von der NTB zeigte, wie die Qualität der Verklebung bei Fleischverpackungen mit Machine Learning sichergestellt werden kann. Dabei wird über das Drehmoment von Servomotoren auf die Klebequalität geschlossen. Ein schönes Beispiel eines virtuellen Sensors.

Markus Meier von Inspire demonstrierte anhand von Schleifmaschinen eine Vorgehensweise, um Maschinen mit einer erhöhten Autonomie ausrüsten zu können.



Es gibt dabei eine Vielzahl möglicher Ansätze, um Schleifmaschinen auf einer höheren Ebene zu automatisieren (Das Bild zeigt die Vielzahl von Sensoren, die grundsätzlich einsetzbar sind). Doch wo und wie soll man beginnen? Um diese Frage beantworten zu können, werden mit Hilfe eines Expertentools zunächst die richtigen Modelle und Verfahren eruiert. So nimmt man die Erfahrungen der Maschinenführer strukturiert auf.

Besonders spannend fanden wir auch den Einsatz eines Ultraschall-Messgerätes in der Schokoladenindustrie (Vortrag von Josquin Rosset von der ZHAW) sowie den Vortrag zur Iot Lowest Cost Communication mit Licht (Prof Laszlo Arato von der NTB).



Die Low Cost Communication war eine Bedingung für das LIBERO ITS der Elpro, mit dem mittels eines sehr preiswerten Miniatursensors eine Temperatur- und Stabilitätsüberwachung ausgeführt wird. Über die Sensor-Schnittstelle werden die Daten auf eine mobile App übertragen, so dass von dort aus Stabilitätsberichte erstellt und verteilt werden können. Eine tolle Sache. Anwendung findet dieses innovative Produkt besonders in der Lieferkette von pharmazeutischen Produkten.

In der Schokoladenindustrie hilft eine Messung bei der Erstarrung von Schokoladentafeln, um die Produktions-Durchsätze zu erhöhen. Dies geschieht mit Hilfe miniaturisierter Ultraschall Sensorik (der Vortrag war leider noch nicht verfügbar).

Ein omnipräsentes Thema war auch der Digitale Schatten, im englischen Digital Twin genannt. Natürlich besteht auf diesem Gebiet noch viel Entwicklungspotential. Aber einige Firmen setzen hier bereits Projekte in Richtung Asset Management um. , wie z.B. die Geberit im gemeinsamen Projekt mit der ETHZ (Philip Roh).

Und guter Letzt noch eine Entwicklung aus der Welsch-Schweiz (Vortrag von Prof Georg Wälder der hepia): Ein intelligenter Schraubenzieher ist mit einer Miniatur- Kamera ausgestattet und ermittelt so die Schraubengeometrie, um daraus die optimale Geschwindigkeit und das Drehmoment beim Anziehen der Schraube vorzugeben.

Gesamthaft war sehr Vieles deutlich praxisnäher als noch vor einem Jahr. Und wir freuen uns schon auf die nächste F&E Konferenz in einem Jahr.

F&E-Konferenz zur Industrie 4.0

Am Montag 15. Januar 2018 findet die Schweizerische F&E-Konferenz zur Industrie 4.0 statt. Sie wird organisiert vom Verein Industrie 2025, wo wir auch aktiver Partner sind.

Das Programm kann hier eingesehen werden:
http://www.industrie2025.ch/agenda/fe-konferenz-2018/programm-fe-2018.html

Wir selber sind mit unserem KTI Projekt Leanpredict und Partner HSR und weiteren Partnern auch dabei. Wir stellen Ihnen den aktuellen Entwicklungsstand unserer Predictive Maintenance Lösung bei der Schweizerischen Post vor.

Viele andere Vorträge versprechen einen spannenden Nachmittag in Brugg- Windisch. Wir freuen uns auf Ihren Besuch und spannende Gespräche.