«Die Kundenbedürfnisse sind wichtiger als die Technologie»
Durch das Internet der Dinge können Prozesse dank Datenaustausch über Sensoren und Applikationen digitalisiert und damit oft effizienter gestaltet werden. Dominik Schatzmann forscht als Professor zu Industrial IoT an der BFH. In einem Interview mit der Zeitschrift Technik und Wissen erklärt er, auf was bei der Auswertung von Sensor- und Aktordaten in der Cloud zu achten ist.
Wie gelangen die Daten von der Feldebene in die Cloud?
Es gibt verschiedene Möglichkeiten, aber häufig sieht man folgende Elemente. Zuerst ist da der Sensor, der die Daten erzeugt. Von diesem gehen diese über ein Gateway in die Cloud, wo sie in einem Datensee gespeichert werden. Ein Analytik-Layer generiert anschliessend aus den gespeicherten Daten nutzbare Informationen. Diese Insights werden dann mit Hilfe einer Prozess Engine in einen Businessprozess eingebunden, aus dem sich Ergebnisse ableiten lassen.
Welche Kriterien müssen erfüllt sein, damit die Digitalisierung eines Prozesses überhaupt Sinn macht?
Die Anbindung der Insights, die man durch die Sammlung und das Aggregieren der Daten gewinnt, müssen einen spürbaren Mehrwert für Kund*innen oder das Unternehmen bringen, sei es zum Beispiel eine Kostenreduktion, eine Qualitätsverbesserung oder die Schaffung eines neuartigen Kundenerlebnisses.
Die Digitalisierung verfolgt je nach Branche unterschiedliche Ziele. Gibt es dennoch einen gemeinsamen Nenner?
Der gemeinsame Nenner bei der Digitalisierung sind die Kund*innen beziehungsweise die Anwender*innen. Wenn zum Beispiel ein Prozess vereinfacht werden soll, steht die Hoffnung dahinter, dass sich Einsparungen erzielen lassen, die an die Kund*innen weitergegeben werden können. Das ist natürlich meine persönliche Meinung und andere sehen das vielleicht anders, aber für mich steht der Kunde im Zentrum.
Inwiefern muss ein zu digitalisierender Prozess aus Sicht der Kund*innen gesehen werden?
Diese Kundensicht ist extrem wichtig, da ansonsten die Gefahr besteht, dass man sich bei seinem Lösungsansatz von den technischen Möglichkeiten und nicht etwa von dem Problem, das es zu lösen gilt, leiten lässt.
Können Sie das anhand eines Beispiels verdeutlichen?
Nehmen wir eine per IoT-überwachte Maschinenkomponente. Damit deren Austausch geplant und das Ersatzteil beschafft werden kann, braucht es eine gewisse Vorlaufzeit. Sprich, mit der aktuellen Datenauswertung lässt sich das Problem nicht oder nicht optimal lösen. Daher muss versucht werden, mit den Daten von vor einer Woche oder zwei Wochen das Geschehen der laufenden Woche vorherzusagen. Ein Echtzeit-Streaming-Layer ist in dieser Anwendung nicht nötig, da das Ereignis, das auf den Ausfall hindeutet, bereits Tage oder sogar Wochen zuvor aufgezeichnet worden ist.
Was sind die typischen Herausforderungen bei der Digitalisierung eines End-to-End-Prozesses?
Das, was ich eben erwähnt habe. Das Problem muss von Kundenseite her analysiert werden, um die wahren Bedürfnisse und deren Elemente zu erkennen. Wer sich von der vorhandenen Technik leiten lässt, entwickelt möglicherweise ein System, mit dem sich die Problemstellung gar nicht beheben lässt.
Worauf ist ansonsten noch beim Definieren eines Prozesses zu achten?
Entscheidend ist die Einfachheit der Lösung. Im Idealfall baut diese auf den Fähigkeiten der Mitarbeitenden und der IT-Abteilung auf. Bleiben wir beim Beispiel des besprochenen Ausfalls einer Komponente. Wer sich zuvor die richtigen Gedanken dazu gemacht hat, wird von selbst erkennen, dass es nicht in jedem Falle eine aufwendige und komplexe Echtzeit-Analytik braucht, um den Prozess zu verbessern. Diese Aufgabe lässt sich häufig auch mit einem einfacheren Batch-Job lösen, welcher beispielsweise einmal täglich die aufgezeichneten Informationen bereitstellt.
Moderne Sensoren generieren eine Vielzahl an Daten. Woher weiss man, welche Daten überhaupt verwendet werden sollen?
Das ist eine grosse Herausforderung von Analytics. Ich habe schon viele Projekte miterlebt, bei denen Daten tagelang ohne ein klares Ergebnis durchsucht worden sind, weil es einfach zu viele waren. Persönlich rate ich dazu, mit Domänenexpert*innen vom Businessproblem her gemeinsam rückwärts zu arbeiten und mit einem kleinen Set von Daten zu beginnen. Wenn wir beim Beispiel des Komponentenausfalls bleiben, können deren Entwickler*innen am besten erklären, welche Parameter Indikatoren für einen bevorstehenden Ausfall sind. Das beschleunigt den Prozess, da die Data Scientists diese Zusammenhänge nicht selber recherchieren und herausfinden muss.
Was ist hinsichtlich des Datenschutzes zu beachten?
Von Beginn an sind auf Privacy by Design und Security zu achten, also dass Personendaten vor Attacken oder Angriffen entsprechend geschützt sind. In aller Regel finden sich innerhalb eines Unternehmens oder einer Organisation kompetente Ansprechpartner*innen, die bei der Gestaltung und der Absicherung eines Prozesses unterstützen können.
Gesetzt der Fall, dass ein Unternehmen nicht die benötigte Unterstützung innerhalb seiner Organisation findet, auf was sollte es beim Umgang mit persönlichen Daten unbedingt achten?
Im Idealfall werden die Daten, bevor es mit diesen arbeitet, anonymisiert. Ein anderer Aspekt ist die Verlässlichkeit der Datenverarbeitungssysteme. Dazu gehört auch, dass diese gepflegt werden und regelmässig Updates erhalten.
Inwieweit muss ein System zukunftsfähig sein, damit sich dieses einfach auf neue Anforderungen anpassen lässt?
Zunächst sollte geklärt werden, welche Eigenschaften eines Systems sich ohne grossen Aufwand auf ein anderes übertragen und dort wiederverwenden lassen. Wenn das entschieden ist, muss das System so gebaut werden, dass sich die Einheiten oder Komponenten einfach separieren lassen. Dafür entscheidend sind die Schnittstellen, die entsprechend ausgelegt sein müssen.
Was sollte aus Ihrer Sicht unbedingt noch zu diesem Thema gesagt werden?
Für mich persönlich ist das Zusammenspiel zwischen den Kund*innen, der Technik und den Mitarbeitenden des Dienstleistungsunternehmens wichtig. Um ein gutes Ergebnis zu erhalten, müssen diese drei Elemente unbedingt in Einklang gebracht werden.
Zur Person
Dominik Schatzmann studierte Elektrotechnik und Informationstechnologie und doktorierte im Bereich Kommunikationssysteme an der ETH Zürich. Er war in verschiedene Funktionen innerhalb der Swisscom tätig, zuletzt als Principal Product Manager im Bereich Data, Analytics and AI verantwortlich für das Channel Analytics Portfolios des Swisscom Massenmarktes. Als Dozent ist er an der BFH mit den Schwerpunkten Communication Systems, Security, Data & Analytics sowie Linux tätig.
Mehr erfahren
Dieser Artikel ist erschienen in Technik und Wissen der Autor ist Markus Back.
Dein Kommentar
An Diskussion beteiligen?Hinterlasse uns Deinen Kommentar!