Schlagwortarchiv für: Big Data

Daten, Daten, nichts als Daten. Was machen wir damit?

Die Summe der jährlich weltweit generierten Daten soll gemäss einer IDC-Studie von 33 Zettabyte auf 175 Zettabyte im Jahr 2025 steigen. Analog wächst auch der IP-Traffic. Gemäss einer Cisco-Studie nimmt der jährliche, weltweite IP-Traffic bis zum Jahr 2022 auf 4.8 Zettabyte zu. Da stellt sich natürlich die Frage, wie wir diese ungeheure Menge Daten nutzen wollen.

Für die Nutzung der Daten sind sowohl Big-Data-Analysen als auch traditionelle Datenanalysen von Bedeutung. Aus der Geschäftssicht erschliessen sich Möglichkeiten der Datennutzung durch ein modernes Business Intelligence, um operative und strategische Fragestellungen beantworten zu können. Grundlegend ist eine Beantwortung dieser Fragen auf Basis von Intuition und Erfahrung möglich. Weiterhin sind Menschen und Prozesse von hoher Bedeutung und spezifische Werkzeuge und Konzepte können genutzt werden. Letztendlich sind Daten und Analysen von zentraler Bedeutung. Im Idealfall kommen alle vier zuvor genannten Aspekte gemeinschaftlich zusammen, um beispielsweise strategische Fragen beantworten zu können. Speziell die Unterlegung von Intuition und Erfahrung mit konkreten, spezifischen Daten ist ein Mehrwert in diesem Bereich. Die Anwendung Business Intelligence unterstützt Entscheidungsträger dabei, Fragen zu beantworten und auch neue Fragen auf Basis von Analysen zu stellen. Wichtig ist, dass Ergebnisse immer kritisch hinterfragt werden. Denn das Denken sollte eine Hauptaufgabe des Menschen sein.

Business Intelligence ist kein neues Konzept. Es hat aber u.a. durch die enorme Datenerzeugung, -gewinnung, -verknüpfung sowie Datenanalyse in den letzten Jahren an Bedeutung im Organisationsalltag gewonnen. Einen Beitrag leisten hierbei auch «einfachere» Methoden, Instrumente bzw. Software der Datenanalyse und -visualisierung, wie bspw. PowerBI oder Tableau. Dies sowohl aus operativer als auch strategischer Sicht. Sie unterstützen die Entscheidungsfindung, bspw. durch Reports und interaktive Dashboards. Im Kern geht es dabei um Effektivität («die richtigen Dinge tun»), wie beispielsweise. die Entwicklung neuer Geschäftsmodelle oder die Anpassung bestehender Geschäftsmodelle. Es geht aber auch um Unterstützungen der Entscheidungen für Initiativen zu Steigerung der Effizienz («die Dinge richtig tun») und somit um eine Gestaltung sowie Optimierung einer Organisation, wie bspw. Marketing oder HR. Business Intelligence ist nicht mehr allein ein Tool für (IT-)Spezialisten. Es gewinnt immer mehr auch bei normalen FachanwenderInnen in allen Bereichen einer Organisation an Bedeutung.


Referenzen

[1] Reinsel, D., Gantz, J., Rydning, J.: «The Digitization of the World From Edge to Core», 2018.

[2] Cisco Visual Networking Index: Forecast and Trends, White Paper, 2017–2022.


Fachkurs an der BFH Wirtschaft

Die BFH Wirtschaft bietet eine Weiterbildung in Management und datenbasierter Unternehmensführung an. Alle Informationen dazu finden Sie hier.


Connecta Bern 2019

Dieser Artikel entstand im Rahmen des Referats von Prof. Dr. Kim Oliver Tokarski an der Connecta Bern 2019 und ist zuerst bei der Schweizerischen Post erschienen.

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Die dunkle Seite des Mondes – Annäherung an ein Unbehagen bei E-Health

Rational gesehen liegen die Vorteile des elektronischen Patientendossiers auf der Hand. Sie werden immer wieder wiederholt. Doch es gibt auch ein Unbehagen mit den längerfristigen Nebenwirkungen, die derartige System haben können. Unser Autor widmet sich diesem Aspekt, der seiner Ansicht nach in der aktuellen Debatte zu kurz kommt.

Im akademischen Umfeld mangelt es nicht an Befürwortern und gar Euphorikern in Sachen E-Health. Hier wird die Zukunft gedacht, entwickelt und an Einzelfällen überprüft, bevor sie sich in die Breite entwickelt. E-Health gut zu finden gehört daher quasi zu den sozialen Pflichten. Ein paar spezifische Einwände sind okay, aber fundamentalere Vorbehalte passen nicht. Bemerkenswert ist nun, dass ein Kollege meine kritische Haltung wahrgenommen und nicht etwa verurteilt hat, sondern sich dafür interessierte. Was ist es genau, das Dich stört? – Ich konnte zunächst nicht mehr sagen, als dass ich ein schlechtes Gefühl hatte. Ich merkte schmerzlich, dass ich keine guten Gründe vorbringen konnte. Diese Peinlichkeit war mir Anstoss, meine Gedanken zu ordnen und die dunkle Seite des Mondes damit etwas zu beleuchten.

Eine gute Horrorstory fängt mit einem sympathischen Gesicht an und mit der gutgemeinten Hilfe eines Zauberlehrlings. Ab da führt sie mit einer Kaskade von einzeln betrachtet recht unauffälligen Konsequenzen zur Katastrophe und endet dort, wo ersichtlich wird, dass die Sache noch um Dimensionen schlimmer ist, als zunächst angenommen.

Das freundliche Gesicht in unserem Fall sind die «Use-Cases». Der Notfallarzt weiss auf der Unfallstelle, dass der vor ihm liegende Mensch blutverdünnende Medikamente einnimmt und kann nur so die Leben rettende Intervention durchführen. Da kann keiner etwas dagegen haben. Wir wären dumm, wenn wir uns diese Vorteile nicht verschaffen würden, denn sie sind in Griffnähe.

Manipulation und Machtlosigkeit werden aber erst wirklich schlimm in Kombination mit Abhängigkeit.

Damit solches möglich wird, muss auf Daten zurückgegriffen werden, die beim Staat bei staatlichen Institutionen oder privaten Unternehmen vorhanden sind. Diese Organisationen mögen alle grundsätzlich vertrauenswürdig sein und mit guter Absicht handeln. Was sich nicht verhindern lässt ist, dass sich damit langsam die Machtverhältnisse verschieben. Dem ist auch dann so, wenn die Hoheit über alle personalisierten Daten beim Individuum bleibt, wie dies von Datenschützern gefordert wird: Wer viele Daten nutzen kann, lernt daraus auch, wie er manipulieren muss, damit egoistisch wünschbare Resultate unter scheinbarer Freiwilligkeit entstehen. Dieses Wissen ist Macht. Genutzt wird es, indem vorgeschlagene Medikamente in Listen zuoberst erscheinen oder zuunterst, indem Markennamen genannt werden oder nicht, Links zur online Bestellung angeboten werden oder nicht. Die Forschung zu solchen Manipulationen ist erheblich, sie ist aber bescheiden im Vergleich den praktischen Anwendungen, mit denen heute schon für riesige Gewinne gesorgt wird. Dagegen ist das Individuum machtlos.

Manipulation und Machtlosigkeit werden aber erst wirklich schlimm in Kombination mit Abhängigkeit. Digitale Startups funktionieren zunächst immer so, dass sie möglichst viel Nutzen für die Kunden hervorbringen. Die neue Dienstleistung wird rasch zur neuen Selbstverständlichkeit. Je mehr Nutzen sie stiftet, desto mehr schafft sie auch Abhängigkeit. Und diese Abhängigkeit wird irgendwann ausgenutzt. Je erfolgreicher das System, desto grösser der Anreiz dazu.

Wir müssen zum Beispiel darüber nachdenken, wie sich die Ermächtigung des Patienten programmieren lässt oder wie ein Algorithmus zur «systemimmanenten Manipulationsbegrenzung» aussehen könnte.

Wer meint, diese Prinzipien liessen sich einfach ausser Kraft setzen, weil es doch um ein so wichtiges Gut wie unsere Gesundheit geht, möge sich vor Augen halten, dass es milde gesagt sehr schwierig ist, komplexe Systeme dazu zu bringen, dass sie im Interesse der Gesellschaft wirken. Zum Beispiel die Internet-Giganten wie Google und Facebook haben eine enorme Reichweite und erzeugen schädliche Informationsblasen, obwohl es um ein so hohes Gut wie Informationsfreiheit und Demokratie geht. Da kann kaum jemand wirksam eingreifen. Und unser Gesundheitssystem wird heute schon von unmoralischen Prinzipen gesteuert: Es gibt leitende Ärzte, die einen Leistungslohn in Abhängigkeit der Anzahl durchgeführter Eingriffe haben. Niemand möchte sich von einem Arzt mit Anreizvertrag beraten lassen, ob seine Operation wirklich nötig sei. Aber nirgends wird ein Spitalchef oder ein Verwaltungsrat für das Gestalten solcher Konstrukte zur Rechenschaft gezogen. Es bräuchte ein klares, transparentes Verständnis, dass das unmoralisch ist und es müsste meines Erachtens verboten sein. Das egoistische Lernen von Systemen ist aber mit oder ohne gesetzgeberischer Intervention eine logische Konsequenz der Datenverfügbarkeit. Es ist nicht aufzuhalten. Im Gegenteil wird die künstliche Intelligenz diesen Prozess noch beschleunigen und professionalisieren. Es ist also nicht der Punkt, dass man im E-Health hinterhältiges Verhalten von irgendeiner konkreten Person oder einer Institution befürchtet. Der Punkt ist, dass die tendenzielle Nebenwirkung von vermehrtem Technologieeinsatz ist, dass wir manipulierbarer werden, machtloser und abhängiger.

Während auf der hellen Seite des Mondes mit digitaler Medizin Leistungen effizienter werden, spielt sich auf der dunklen Seite folgendes ab: Es erhöht sich der Anreiz zum Missbrauch des Gesundheitssystems, dem wir alle ausgeliefert sind. Wir können dem Horror nur entkommen, wenn wir weiterdenken als nur, wie wir mit Technologie im Gesundheitswesen Nutzen stiften. Wir müssen zum Beispiel darüber nachdenken, wie sich die Ermächtigung des Patienten programmieren lässt oder wie ein Algorithmus zur «systemimmanenten Manipulationsbegrenzung» aussehen könnte. Vielleicht ist es an der Zeit, ein starkes Team zur dunklen Seite des Mondes zu senden.

 


Referenzen

  • Ackerlof, George & Shiller, Robert (2009): Animal Spirits, How Human Psychology Drives the Economy, and Why it Matters for
  • Global Capitalism, Princeton University Press, Princeton.
  • Dan Ariely (2013): The Honest Truth About Dishonesty: How We Lie to Everyone – Especially Ourselves, Harper Collins, London.
  • Hunziker, Alexander W. (2001): Spass am ökonomischen Denken, Die wichtigsten Konzete einfach erklärt, SKV Verlag, Zürich.
  • Pariser, Eli (2012): Filter Bubble, Wie wir im Internet entmündigt werden, Hanser, München.
  • Schöchli, Hansueli (2018): Verdienen Chefärzte tatsächlich eine Million Franken pro Jahr?, in: NZZ, 21. Februar, online:
  • Thaler, Richard & Sunstein, Cass (2009): Nudge, Improving Decisions About Health, Wealth and Happiness, Penguin, London.
  • Kahneman, Daniel (2012): Thinking fast and slow, Penguin, London.

Inspirationsquellen

  • Dürrenmatt, Friedrich (1962): Die Physiker, Eine Komödie in zwei Akten, Diogenes, (Neufassung 1980).
  • Orwell, George (1949): 1984, Ullstein Verlag, Berlin (39. Auflage 1994).
  • Polanski, Roman (1967): Tanz der Vampire. Kinofilm/Horror-Komödie.
Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Wie sich die Dienstleistungswirtschaft durch Daten wandelt

Datengetriebene Wertschöpfung: was gibt es zu tun? Welche neuen Ansätze zur Entwicklung von datenbasierten Dienstleistungen notwendig sind, stellen unsere Gastautoren vor.  

Mit der Verbreitung des Internets über die letzten 20 Jahre hat sich die Digitalisierung in weite Bereiche von Gesellschaft und Wirtschaft ausgedehnt. Administrative Prozesse sind schon überwiegend digitalisiert und effizient gestaltet. Die kundenzentrierte Entwicklung von Dienstleistungen, welche relevante Probleme im Alltag von Anwendern lösen, hat hingegen noch grosses Potential. Firmen stehen vor dem Entscheid, ihr Geschäft von einer Produkt- zu einer Service-Logik zu transformieren und damit den gewachsenen Kundenbedürfnissen gerecht zu werden. Mit der breiten Verfügbarkeit von Sensoren, Daten, Netzwerken und Cloud-Infrastrukturen steht für diesen Wandel heute eine Basis zur Verfügung, welche neue und skalierbare Möglichkeiten bietet. Vor dem Hintergrund dieser vielversprechenden technologischen Innovationen kommt der Fokus auf den betriebswirtschaftlichen Nutzen aber oft zu kurz. Dieser muss konsequent an den Anwendern und Kunden ausgerichtet sein und einen Mehrwert für deren Geschäftsprozesse generieren. Eine erfolgreiche Umsetzung digitaler Services muss ausgehend vom Geschäftsnutzen konzipiert sein und dabei gleichzeitig die Potentiale der neuen Technologien nutzen. Dafür werden neuartige methodische Ansätze benötigt.

Scheitern und daraus lernen

Mit der Theorie der Dienstleistungsentwicklung stehen uns seit einigen Jahren effektive und bewährte Instrumente zur Verfügung für das Design und Engineering von anwenderzentrierten Services. In der Praxis hat sich das Konzept des Value Proposition Designs bewährt für die Entwicklung von Services, die konsequent auf die Kunden ausgerichtet sind [1]. Die Situation der Kunden wird dabei in den Dimensionen Kundenaufgaben (Jobs), Kundenprobleme (Pains) und Kundengewinne (Gains) erfasst. Bei der Umsetzung von Service-Design-basierten Projekten ist eine iterative Vorgehensweise in enger Co-Creation mit den Kunden angebracht: mit schnellen Prototypen (rapid service prototyping) kann rasch und kostengünstig gelernt werden, ob man die Jobs, Pains und Gains der Kunden richtig verstanden hat. Scheitern und daraus lernen ist dabei fixer Bestandteil des Entwicklungsweges.

Der Kunde ist stets als Partner involviert und trägt zur Entwicklung bei. Daten und Analyse können diesen iterativen Suchprozess bei der Service-Entwicklung schneller auf eine Lösung konvergieren lassen, z.B. bei der Validierung neuer Service-Ideen in bestimmten Marktsegmenten (Simulation), bei der Auswahl von Service-Prototypen und deren Akzeptanz-Test in Feldversuchen, bei der Auswertung von Nutzungsdaten für die Optimierung bestehender Services oder auch bei Vermarktungsentscheiden.

Neue Modelle für Daten-basierte Value Propositions

In den herkömmlichen Produkt- und Service-Modellen wird den Kunden eine erbrachte Leistung versprochen, z.B. eine Anzahl aufgewendeter Arbeitsstunden oder eine Anzahl gelieferter Teile und nach kostenasierten Ansätzen verrechnet. Mit den neuen Modellen erfolgt der Übergang zu sogenannten outputasierten Services [2]. Den Kunden wird eine erzielte Leistung garantiert und verrechnet. Für die Anbieter entstehen dadurch interessante neue Möglichkeiten, durch kontinuierliche Service-Co-Creation mit den Kunden die Loyalität und die gegenseitige Bindung zu festigen und letztendlich die Wertschöpfung für alle Beteiligten zu optimieren.
Dabei kommt der Datenanalyse besondere Bedeutung zu. Wenn die Anbieter für die erzielten Ergebnisse statt für den erbrachten Aufwand vergütet werden, übernehmen sie einen wesentlichen Teil des operativen Risikos. Sie müssen genau berechnen können, zu welchem Preis sie die versprochenen Resultate kostendeckend oder mit Gewinnmarge erbringen können. Betriebs- und Nutzungsdaten müssen bei den Kunden erhoben und durch die Anbieter analysiert werden.

Von Wertschöpfungsketten zu neuen Service-Ecosystemen

Bei dieser Vorgehensweise zur Entwicklung von Services gelangt man typischerweise zum Punkt, dass man als einzelnes Unternehmen Partnerschaften eingehen muss, um die «Jobs», «Pains» und «Gains» der Anwender bzw. Kunden entlang der Customer Journey umfassend abdecken zu können. Dadurch werden lineare Wertschöpfungsketten aufgebrochen und es entstehen sogenannte Service-Ecosysteme, in denen die Akteure über Cloud-Verbindungen Service-Werte austauschen. Die Co-Creation zur Entwicklung von Services erfolgt dann gemeinsam durch mehrere Akteure eines solchen Ecosystems.

Unterstützung in der innovativen Community

Mit der Swiss Alliance for Data-Intensive Services (Data+Service Alliance) gibt es ein Technologie-Netzwerk in der Schweiz für innovative Unternehmen, akademische Institute und Einzelpersonen, welches den Fokus auf daten-basierte Wertschöpfung mit Dienstleistungen, aber auch Produkte und Geschäftsmodelle setzt. Es ist eine Community, die vor allem Unternehmen hilft, mit der Digitalisierung in diesem Bereich voranzukommen.

Die Zusammenarbeit in diesem interdisziplinären Netzwerk fördert Innovationsprojekte der Mitglieder, die wiederum das Wissen aus verschiedenen Bereichen zu marktfähigen Dienstleistungen bündeln. Gemeinsame Expertengruppen und Workshops helfen, das Potenzial der Community auszuschöpfen. Zur Förderung der Innovation wurde zudem durch die Alliance eine Innovations-Initiative «Von Ideen zu Projekten» und ein Stipendium für Start-Ups 2018/2019 ins Leben gerufen.

An der 5. Swiss Data Science Konferenz im Juni 2018 kamen 400 Forscher und Praxisvertreter zusammen, um Fragen der datenbasierten Wertschöpfung zu diskutieren: von der Datenerfassung und -verarbeitung über die Analytik bis hin zur Entwicklung neuer Dienste und deren Umsetzung; aber auch die gesellschaftlichen Auswirkungen, die mit datengetriebener Wertschöpfung zusammenhängen.


Referenzen

  1. Osterwalder, A., Pigneur, Y., Bernarda, G., Smith, A.: Value Proposition Design: How to Create Products and Services Customers Want. John Wiley & Sons, Hoboken, New Jersey (2014)
  2. Kowalkowski, C, Ulaga, W: Service Strategy in Action: A Practical Guide for Growing Your B2B Service and Solution Business, Service Strategy Press (2017).
Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Tourismus und Ontologie – Wo ist denn der Zusammenhang?

Was ist Ontologie überhaupt?

Wer an Tourismus denkt, bildet an erster Stelle Assoziationen mit Ferien. Wanderungen im Sommer und Herbst, Skifahren im Winter, Sehenswürdigkeiten und kulturelle Anlässe während des ganzen Jahres … alles das hat sicher in der kollektiven Vorstellung mit Tourismus zu tun.

Wenn man aber schnell bei der allgegenwärtigen Wikipedia nachschlägt und sich über «Ontologie» erkundigt (https://de.wikipedia.org/wiki/Ontologie), landet man in eine auf den ersten Blick frem­de Welt.  Es ist die Rede von «Einteilung des Seienden» und «Grundstrukturen der Wirklichkeit und der Mög­lichkeit». Wir befinden uns – oh Schreck – in der theoretischen Philosophie, in der Metaphy­sik. Das allein wäre für die meisten Menschen Grund genug, um diese Webseite zu verlassen und die Leitfrage dieses Artikels mit «nein» zu beantworten.

Liest man aber weiter, kommt es zu einem für Viele möglicherweise erstaunliche Angabe: «In der Informatik werden seit den 1990er Jahren formale Repräsentationssysteme, angelehnt an den philosophischen Begriff, als ‹Ontologien› bezeichnet.» Weiter unten beim Abschnitt «Verbindung zu anderen Wissenschaften» kommt die endgültige Klärung, sowie der Hinweis, warum die Informatik von «Ontologien» in Plural spricht, die Philosophie dagegen «Ontologie» nur im Singular versteht. An dieser Stelle überlasse ich gern dem Leser die weitere Lektüre dieses Wikipedia-Beitrags und vielleicht auch der weiteren Quellen in der dort aufgeführten Literatur.

Ich komme zurück auf zwei wichtige Aussagen in diesem Text:

  • «Anspruch, ein allgemeingültiges Werkzeug bereitzustellen, um die Welt verstehen zu können.»
  • «[…] bezieht sich der Ontologiebegriff […] auf ein begrenztes Themengebiet […].»

Wenn wir diese Aussagen in unserer Rolle als Informatiker betrachten, finden wir uns wieder. Infor­ma­tik ist letzten Endes eben der Versuch, einen genau definierten Abschnitt der Welt zu verstehen, ihn mit formalen Mitteln zu modellieren und dieses Modell auf einer endlichen, realen Maschine mit begrenzten Ressourcen zum Laufen zu bringen. Dazu verwendet die Informatik Algorithmen und Datenstrukturen.

Strukturen in einer Ontologie

Wenn wir letztere als ein Begriffsnetz fassen, welches verschiedene Entitäten mit ihren Attributen und den Assoziationen untereinander darstellt, bauen wir ein semantisches Netz. Dieses beschreibt den Abschnitt der Welt, den wir technisch abbilden wollen. Fassen wir die Informationen in Form sprachlicher Aussagen mit der festen Struktur Subjekt-Verb-Objekt (SVO), sind wir daran, den aus­gewählten Weltabschnitt mithilfe von semantischen Tripeln zu beschreiben.

Sprachliche Strukturen dieser Art sind aus Sicht der Logik (genauer: der Aussagen- und Prädi­ka­ten­lo­gik erster Stufe) Aussagen, die nur einen von zwei Wahrheitswerten (tertium non datur) annehmen können. Dieser Schritt öffnet uns die Türe zur Welt der formalen Logik. Wir können die seman­ti­schen Tripeln als logische Aussagen (mit gebundenen Variablen) oder logische Prädikate (mit un­ge­bundenen Variablen) betrachten. Diese können mithilfe von Operatoren (Junktoren) verbunden werden und komplexe logische Ausdrücke bilden.

Eine Operation ist dabei von grosser Bedeutung für den Einsatz von Ontologien in der Informatik: das Ziehen von Schlussfolgerungen. Man verwendet dabei einen Mechanismus, welcher schon Aristoteles bekannt war, den Syllogismus (Deduktion). In der modernen forma­len Logik spricht man von der Implikation. Von Voraussetzungen (Prämissen) ausgehend, kommt man zu einer Schlussfolgerung (Konklusion).

Neben Fakten in Form semantischer Tripeln beinhaltet ein Ontologie-System eine Inferenz­kom­po­nente. Diese ist in der Lage, anhand der Fakten in der Wissensbasis Schlussfolgerungen nach den Re­geln der formalen Logik zu ziehen. Somit können aus bestehenden Fakten explizite Informationen abgeleitet werden. Bestehendes, im Informationssystem nur implizit vorhandenes Wissen wird dank der Inferenz sichtbar gemacht. Dieser Lösungsansatz hat aber auch Grenzen. Deklaratives Wissen lässt sich elegant mit se­mantischen Tripeln abbilden, prozedurales und episodisches Wissen dagegen eher über Umwege oder sogar erst mit anderen Mechanismen.

Technische Umsetzung

Technisch wird die Wissensbasis der Ontologie in einem Triple Store gespeichert. Mittels einer graph­ba­sierten Abfragesprache (SPARQL, als «sparkle» ausgesprochen, ein rekursives Akronym für «SPARQL Protocol and RDF Query Language») ist es möglich, Zugang zu dem in einem Triple Store gespeicherten deklarativen Wissen zu erlangen. Dank einer solchen Schnittstelle können Wissensbasen durch Maschinen verarbeitet werden.

Dieser Ansatz wird im semantischen Web verfolgt, dessen Grundlagen vor ungefähr zwanzig Jahren von Tim Berners-Lee beschrieben wurden. Sind die im Web gespeicherten Informationen nicht nur Menschen, sondern auch Maschinen zugänglich, kommen wir zu einem «Web of Data». Infor­ma­tio­nen können automatisch gesucht, aggregiert, angereichert, ausgewertet und mit ansprechenden Visualisierungen dargestellt werden.

Solche Lösungen verlangen wichtige Schritte, die zu OLD (Open and Linked Data) führen:

  • URI zur Veröffentlichung von Informationen, nicht ganze Dokumente in un­struk­turierter natürlicher Sprache
  • Maschinenlesbare Verbindungen zwischen Daten (Links)
  • Offene, standardisierte, maschinell lesbare Formate
  • Offene, standardisierte, maschinell lesbare Metadaten zur Interpretation, Cha­rak­terisierung und Klassifizierung der Daten und der Links.

Verbindet man diese Mechanismen mit dem allgemeinen Ansatz von Ontologien, kommt man zu föderierten Systemen, deren Inhaltsangebote durch Maschinen automatisch ausgewertet werden können.

Auf dieser Basis kann man Applikationen verschiedener Art entwickeln (Auskunftssysteme, Frage-Antwort-Systeme, Decision Support Systems DSS, aktive Empfehlungssysteme, Chatbots,…).

Ontologien im Tourismus

Wie können diese Technologien einen Beitrag zur Tourismuswirtschaft leisten?

Das Internet als globaler Marktplatz bietet ein stetig wachsendes Angebot an Lösungen für Tou­ris­ten. Die Spannweite reicht von einfachen Hotelbuchungen bis zu ganzheitlichen Angeboten für Pau­schalreisen. Dazu kommen Metasuchmaschinen, die das Angebot mehrerer Anbieter ag­gre­gie­ren und die verschiedenen Lösungen für Tourismuskunden vergleichbar machen.

Die bisher verfügbaren Informationen sind aber in unterschiedlichen, meist proprietären Systemen (Datensilos) gespeichert und nur in einigen Fällen allgemein zugänglich. Die we­ni­gen Standards und Schemata aus OLD auf diesem Fachgebiet werden zu wenig benutzt. Somit kann keine gesamt­haf­te Sicht einer Tourismusdestination entstehen. Der Tourist als Kunde ist nicht in der Lage, sich über eine oder wenige heterogene Quellen umfassend zu informieren.

Durch ein Informationsmodell auf der Basis semantischer Technologien, welches die Begriffe im Tou­rismusbereich sowie ihre Eigenschaften und Beziehungen untereinander formal als Ontologie be­schreibt, könnte eine gemeinsame Plattform aufgebaut werden. Diese kann die un­ter­schie­dli­chen Quellen zu einem föderierten System vereinen und ihre Inhalte in struk­tu­rierter Form zugänglich machen. Diese dient dann als virtueller Infor­ma­tionsmarkt im Tou­ris­musbereich. Touris­mus­ope­ra­to­ren bieten über diese Drehscheibe Informationen an, die der Tou­rist als Kunde nachfragen kann. Aufgrund solcher Informationen ist er dann in der Lage, qualifizierte Entscheidungen über seine Ferien zu treffen.

Schlussfolgerung

Der Einsatz von Ontologien im Tourismusbereich könnte neue Wege für die Tourismuswirtschaft eröffnen. Ein auf nationaler Ebene koordinierter Ansatz dieser Art ist die französische Plattform «DataTourisme» (http://www.datatourisme.fr).

Das Tourismusbüro der Zukunft könnte ein System sein, das den Touristen aktiv und dynamisch um­­­fas­­sende, spannende Gesamtangebote unterbreiten kann. Systeme auf der Basis von Ontolo­gien brin­gen uns einen Schritt weiter in diese Richtung.

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Daten im E-Government – «Once Only»!

Baut man heute den «digitalen Staat» ohne eine Legacy, so ist es selbstverständlich, dass Bürgerinnen und Bürger sowie Unternehmen ihre Daten den Behörden «once only» zur Verfügung stellen. Die digitale Transformation baut aber auf Bestehendem auf; in unserem konkreten Fall ein föderiertes System und eine 700-jährige Staatstradition. Die Europäische Union setzt nun «once only» auf die Agenda. Was heisst das für die Schweiz?

Die Tallinn Deklaration zu E-Government
Die Schweiz hat im Herbst 2017 zusammen mit anderen 31 Ländern aus der Europäischen Union und der Europäischen Freihandelsassoziation die «Tallinn Deklaration zu E-Government» unterzeichnet und bekennt sich damit zu einer Weiterentwicklung von E-Government gemäss den in Europa anerkannten Leitprinzipien. Mit der Deklaration wird eine gemeinsame Basis gelegt, um die digitale Verwaltung international und national voranzutreiben. Unter anderem soll die Digitalisierung von Dienstleistungsprozessen vorangetrieben werden und für alle zur Verfügung stehen. Auch verlangt die Deklaration, dass die Dateneingabe für Bürgerinnen und Bürger sowie Unternehmen zuverlässig und sicher sein und nur einmal getätigt werden muss. Zudem wird die Interoperabilität von IT-Systemen national und international angestrebt.

Tab. 1 Fünf Prinzipien der Tallinn Deklaration zu E-

Einsicht in die «Tallinn Deklaration zu E-Government» erhält man hier.

Once Only Prinzip (OOP) – was will die EU damit?
Die Europäische Union will mit der Umsetzung des OOPs bis 2022 die administrativen Lasten durch grenzüberschreitende Zusammenarbeit reduzieren. Weiter sollen Auffindbarkeit, Qualität und Zugänglichkeit der Basisregister erhöht werden. Mit der Umsetzung des Once Only Prinzips soll auf nationaler und internationaler Ebene die Wiederverwendungskultur der Daten in den Behörden gefördert werden. Die EU unterstützt die Digitalisierung aller Kerndaten und die Schaffung von internationalen Datenaustauschplattformen.

Um die Machbarkeit der Umsetzung dieses Prinzips zu testen, die unterschiedlichen Mitgliedstaaten zu sensibilisieren sowie die nötigen Kompetenzen zu identifizieren und trainieren, lancierte die EU zwei grössere Forschungs- und Entwicklungsprojekte zum Thema.
Mit dem EU Large Scale Pilot «TOOP» wird OOP anhand von Unternehmensdaten untersucht. 50 Partner aus 20 Nationen arbeiten an konkreten Anwendungsfällen wie z. B. die Aktualisierung von zusammenhängenden Unternehmensdaten.
Mit dem EU Coordinated Support Action Project «SCOOP4C» wird OOP im Kontext von Bürgerdaten getestet. Fünf Partner aus Deutschland und Griechenland bemühen sich um die Wissensdissemination zu OOP, analysieren Stakeholder, Hürden und Befähiger und identifizieren Massnahmen, auch regulativer Natur.

Was heisst das für die Schweiz?
Im Dezember 2017 hat SocietyByte Bundesrat Ueli Maurer zum Thema interviewt (Interview hier). Gefragt nach seiner Hauptmotivation, antwortete er: «Die Schweizer Behörden haben die Bedeutung des E-Government früh erkannt. Die aktuelle E-Government-Strategie Schweiz wurde für den Zeitraum 2016-2019 beschlossen. Sie soll in Kürze erneuert werden. Dazu bildet die Deklaration von Tallinn eine wichtige Leitlinie; die fünf darin beschriebenen Prinzipien sollen auch für die Schweiz zur Anwendung kommen und baldmöglichst umgesetzt werden.»

Eine besondere Herausforderung stellt in der föderalen Schweiz das «Once Only Prinzip» (OOP) dar, wonach die Verwaltung sicherstellt, dass Personen und Unternehmen im Kontext von E-Government dieselben Daten nur einmal an Behörden übermitteln müssen. Das setzt die Fähigkeit voraus, verfügbare Daten – unter Wahrung des Datenschutzes – über bestehende Systeme und staatliche Ebenen hinweg wiederzuverwenden.

Aus «Kundensicht» haben wir in der Schweiz bereits Erfolgsgeschichten in Bereich «Once Only»: Die Umsetzung des elektronischen Umzugs oder des EasyGov-Portals sind gute Beispiele dafür. Die Verabschiedung von Gesetzen zu Registerharmonisierung (RHG), Geoinformation (GEoID) oder Unternehmensidentifikation (UID) legten die Grundlage für zentrale Komponenten einer nationalen Dateninfrastruktur. Die Schweiz muss nicht von Null anfangen: Bestehende Ansätze und Modelle der Implementierung müssen eruiert werden. Anforderungen an mögliche Umsetzungen im föderierten System sollen erhoben werden, damit die staatliche Transformation die Wiederverwendungskultur, aber auch die Informationssicherheit – im Sinne von Verfügbarkeit, Integrität und Datenschutz – ermöglichen kann. Neue Ansätze von «Good Governance» sollen Möglichkeiten der Nutzerbefähigung reflektieren.

 

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Märzausgabe: Das Datenfundament des E-Government

Wie kann man die Zusammenarbeit in der Verwaltung zwischen autonomen Organisationen «minimal invasiv» gestalten? Das heisst: Wie kann man erfolgreich zusammenarbeiten, ohne dass sich die Beteiligten zu stark verändern müssen?

Die vorherrschende Meinung ist, dass man im E-Government nur durch zentrale Steuerung vorwärts kommt und dass konkret die Prozessstandardisierung uns einen wesentlichen Schritt vorwärts bringt. Mit der stark ausgeprägten Schweizer Subsidiarität ist das kaum vereinbar. Es liefert auch nicht notwendigerweise mehr Zusammenarbeit. Im schlimmsten Fall führt es zur Logik „Jeder für sich, aber alle strikt nach Norm.“ Erfunden wurde das Konzept der Prozessstandardisierung in der Wirtschaft, um die zentrale Steuerung zu vereinfachen.   

Eine Alternative zu diesem etablierten E-Government-Denken ist die Idee des Teilens. Teilen heisst hier „anderen Nutzungsrecht einräumen und die tatsächliche Nutzung einfach machen“. Im Fall von E-Government sind das Nutzungsrechte an den eigenen Daten, Applikationen und Diensten, sowie natürlich auch das Recht, Prozesse freiwillig zu kopieren. Es wird etwas angeboten, statt verordnet. Dieser Unterschied ist aber mehr ein gefühlter, denn ein realer. Damit das alternative Modell nämlich funktioniert, braucht es ein gemeinsames Identitäts- und Zugriffsmanagement und Datenstandards, zudem möglichst auch standardisierte Dienste-Schnittstellen. Das „Teilen“-Konzept im E-Government unterscheidet sich vom konventionellem Denken daher primär durch geringere Invasivität und grösseren Nutzen. Es schränkt das eigene Gestalten der operativen Verwaltungsarbeit durch die Gemeinde oder den Kanton viel weniger ein. Und es schafft offensichtlichen Nutzen durch Reduktion von Redundanz, Softwarekosten, Aufbau- und Betriebskosten von Diensten. Es stammt ebenfalls aus der Wirtschaft und dient dort insbesondere auch der Erhöhung des Werts von Kundendaten. „Teilen“ ist also ein Konzept für mehr Effizienz und höhere Wertschöpfung.

Das alternative Konzept ist dabei nicht gänzlich neu. Es wird unter anderem durch Registerharmonisierung und Registerintegration umgesetzt. Für eine konsequente Umsetzung sollten eine ganze Reihe von Fragen zum WAS und WOZU beantwortet werden:

  • Welche Standards für den Informationsaustausch sind notwendig?
  • Was kann mit konkreten Standards erreicht werden?
  • Wo liegen die Grenzen einer Standardisierung, die sich auf den Informationsaustausch beschränkt?

Wichtig sind auch Antworten auf Fragen zum WIE, beispielsweise wie die Governance des Teilens definiert und kontrolliert werden soll. Dabei ist der Umgang mit dem Datenschutz ein zentrales Thema.

„The one big thing“ beim Thema Daten im E-Government ist die Umsetzung des „Only Once“ Prinzips. Einwohnerinnen und Unternehmen sollen Daten nicht mehrfach den Behörden liefern müssen. Umsetzen lässt sich dies nur in einer akzeptierten Logik des Daten-Teilens. Welche Architektur tatsächlich im Large Scale Pilot TOOP ausgewählt wird, entscheidet darüber, ob „Once Only“ analog zur grenzüberschreitenden Nutzung von elektronischen Identitäten und digitalen Unterschriften per Regulierung zur Norm erhoben wird oder nicht. Denn eine Regulierung, die das „Teilen“ vorschreibt, macht nur Sinn, wenn sie in der Praxis einfach machbar ist.

Ich hoffe, Sie finden viele relevante und wegweisende Antworten in dieser Ausgabe und wünschen Ihnen ein erbauliches Lesen. In der Hoffnung, dass ein guter Fachdiskurs über Daten im E-Government einen nützlichen Beitrag zum Entstehen einer brauchbaren Datenstrategie für die Schweiz führt,

herzlichst Ihr Reinhard Riedl.

Creative Commons LicenceCreate PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.