Schlagwortarchiv für: Big Data

Algorithmen bestimmen, wer wir sind

Wer im falschen Quartier lebt und eine bestimmt Automarke fährt, den stufen Algorithmen als Terroristen ein – das ist keine Fiktion sondern längst Realität. Daten bringen uns einen persönlich zugeschnittenen Service, können in der Medizin Leben retten, können aber auch ohne unser Wissen gegen uns verwendet werden. Was mit Big Data möglich ist und wie persönliche Daten geschützt werden können, darüber sprachen die Referenten am eGov-Fokus „Data Privacy in der digitalen Dienstleistungsgesellschaft“.

„Gesetze sind eine alte Technologie, damit kann man dem Big-Data-Problem nicht begegnen.“ Mit dieser pointierten Aussage startete Christian Lovis seinen Vortrag. Der Mediziner leitet die Abteilung Medical Information Sciences am Universitätsspital Genf und untersuchte in seiner Präsentation, welche Erkenntnisse Big Data liefert. Aus seiner Sicht sind Big-Data-Resultate nur so gut oder schlecht wie die Daten, auf denen sie beruhen. Daher trainiere etwa IBM seine künstliche Intelligenz Watson mit 30 Milliarden Bildern, die der IT-Konzern von 7500 Kliniken gekauft hatte, um zuverlässige Ergebnisse in eHealth zu erhalten.

Lovis macht bei der Arbeit mit Big Data die Anonymisierung als grösstes Problem aus, das bis heute in der Medizinforschung ungelöst sei. Zudem beruhten noch zu viele Resultate auf „schlechten Datensätzen“. Für Patientinnen und Patienten sei die Frage zudem nicht mehr zu beantworten Wer bin ich? „Im Kontext von Big Data gehen Selbstdefinition und maschinelle Definition auseinander“, erläuterte Lovis. Hingegen könne eine Einzelperson aus der gesamten Weltbevölkerung mit nur fünf Blutzucker- und vier Cholesterolwerten identifiziert werden.

Zufälle können entscheidend sein

Prof. Dr. Christian Scholz

Auch Christian Scholz, Direktor des European Institute for Advanced Behavioural Management (EIABM) in Saarbrücken kritisierte in seinem Vortrag, dass vorliegende Daten zu einseitigen Ergebnissen führten, weil Koinzidenzen verwendet würden. Der Algorithmus verbinde dabei viele zufällige Zusammenhänge miteinander, was weitreichende reale Konsequenzen nach sich ziehe. „Wenn zum Beispiel ein Österreicher nach Frankfurt/Main in ein bestimmtes verruchtes Quartier zieht und ein Bett bestellt, hat er ein Problem: Die Algorithmen stufen ihn als wenig zahlungswürdigen Ausländer ein. Das mag ein falsches Ergebnis sein, aber daraus folgt trotzdem eine Aktion, denn er bekommt deshalb keine Möbel geliefert“, berichtete Scholz. Weiter sei laut Big Data ein junger Mann, der ein Einzelzimmerappartment in der Nähe einer Autobahn bewohnt und einen BMW5 fährt wahrscheinlich ein Terrorist.

Scores werden bei Rekrutierung genutzt

Kämen weitere Daten von noch mehr Personen und quasi zufälligen Themen hinzu, liessen sich Scores bilden. Zusammen mit Re-Identifikation von Personen lassen sich zielgerichtete, individualisierte Manipulationen umsetzen wie etwa in personalisierter Werbung. In den USA nutzten Unternehmen bei der Rekrutierung bereits Big Data, etwa mit Creditscore. „Dann bekommt jemand vielleicht den Job nicht, weil er keine Kreditkarte besitzt und damit als nicht zahlungskräftig eingestuft wurde“, sagte Scholz.

Als Alptraum bezeichnete er den Bürgerscore, der darüber entscheide, wer ein guter Bürger sei. Dies sei in Europa undenkbar aber in China schon wesentlich realer. Dabei würden die Bürgerinnen und Bürger digital erfasst und sozial erwünschtes Verhalten mit Punkten und Leistungen belohnt. „Ich rede hier nicht über Fiktion, die einzelnen Teile sind so alle auch bei uns vorhanden“, betonte Scholz und forderte, dass sich die Wissenschaft vermehrt in die Diskussion einbringt. Um der wirtschaftlichen Macht zu begegnen, sollten aus seiner Sicht Social Media und öffentlichkeitswirksame Kommunikation betrieben werden, so dass sich Forschende, Medienschaffende und Interessierte zu dem Thema stärker vernetzten.

Schweizer Gesetz ohne Recht auf Vergessen

Daniel Hürlimann

Ob alte Technologie oder nicht – ohne Gesetze geht es nicht. Die EU hat eine neue Datenschutzgrundverordnung (DSGVO), die Daniel Hürlimann, Direktor der Forschungsstelle für Informationsrecht an der Universität St. Gallen in den Grundzügen vorstellte. Das umstrittene Gesetz betrifft ab kommendem Jahr auch Schweizer Unternehmen, die mit Daten von EU-Bürgerinnen und Bürgern arbeiten. Zudem ging Hürlimann auf die Totalrevision des Schweizerischen Datenschutzgesetzes ein. Der Entwurf gehe in einigen Punkten über die DSGVO hinaus, umfasse aber bislang nicht das Recht auf Vergessen sowie auf Datenübertragbarkeit, sagte Hürlimann. Der Vorschlag werde im Dezember dem Parlament vorgelegt.

Daniel Gruber Vizedirektor beim Bundesamt für Justiz eröffnete seinen politischen Vortrag mit der Frage: „Wie beweise ich meine Identität im Internet?“ Eine Frage, welche für die allermeisten Transaktionen bereits mit diversen digitalen Identitäten längst gelöst ist (z.B. über Kreditkarten), eine staatliche anerkennte digitale ID – eine E-ID – ist in der Schweiz aber bisher nicht verbreitet. Die Identifizierung im Umgang mit den Behörden wäre im Cyberraum technisch einfach. 2012 erhielt das Bundesamt für Justiz den Auftrag, ein Konzept und einen Rechtsetzungsentwurf für ein staatliches elektronisches Identifizierungsmittel als Zusatz zur physischen Identitätskarte zu entwickeln. Das Konzept wurde nicht zuletzt wegen den schlechten Erfahrungen aus Deutschland fallen gelassen. Das neue E-ID-Konzept sieht deshalb vor, dass private Akteure die E-ID nach staatlichen Standards herausbringen. Gruber zeigte sich überzeugt, dass mit einer privaten Lösung die Verbreitung in der Bevölkerung viel schneller voranschreite, als wenn der technologisch schwerfällige Staat eine E-ID in der Schweiz editiere. Dem Staat falle aber die Aufgabe zu, die verschiedenen Identity Provider zu kontrollieren.

E-ID für den Alltag

Daniel Gruber

Gruber verteidigte diese staatlich-private Lösung gegenüber einer rein staatlichen vehement. Gruber liess sich nicht in die Karten blicken, ob dieses vom BJ favorisierte Konzept in der aktuellen Vernehmlassung auf Zustimmung stösst. Das BFH-Zentrum Digital Society hatte sich an der Vernehmlassung beteiligt und unter anderem kritisiert, dass der Staat nicht selbst eine e-ID realisiere. Dagegen konterte Gruber am eGov-Fokus: „Wir können der Post mindestens so vertrauen wie einer Gemeindeverwaltung.“ Gruber: „Es braucht eine Killer-Applikation, die Nutzer müssen die E-ID im Alltag nutzen. Das ist mit den eher seltenen Interaktionen zwischen Staat und Bürger aber kaum machbar.“ Um die Verbreitung weiter zu vereinfachen, seien unterschiedliche Sicherheitsniveaus vorgesehen (niedrig, substanziell, hoch). Die Daten der staatlichen E-ID würden dem Datenschutz unterliegen, eine Herausgabe an Dritte (z.B. Foto, Zivilstand, Geschlecht) zur kommerziellen Nutzung sei verboten. Ein Reputationsrisiko, wie von vielen in der Vernehmlassung befürchtet werde, besteht laut Gruber nicht. Auf Verordnungsebene könnte der Bundesrat vorschreiben, dass ein Identity Provider den E-ID-Inhabern einen Zugang zu den Aufzeichnungen über den Einsatz der E-ID geben müsse.

Er sieht vor allem Vorteile der Aufgabenteilung, etwa, dass der freie Wettbewerb der Anbieter Dynamik und Weiterentwicklungen bringe, der Staat gleichzeitig aber nicht mit dem rasanten Tempo der technischen Entwicklung mithalten müsse. Und: „Wir bewegen uns im Bereich Vertrauensdienste und Vertrauen ist gut, aber Kontrolle ist besser“, sagte Gruber. Der Staat werde den Anbietern via Anerkennungsverfahren und zweijährlichen Kontrollen quasi ständig auf die Finger schauen.

Staat ist in der Pflicht

Der grüne Nationalrat Balthasar Glättli, ein profilierter Digitalpolitiker in der Schweiz, setzte wie Gruber auch einen Kontrapunkt zu den Eröffnungsreferaten. Gesetzliche Regeln brauche es, auch im sich schnell entwickelnden Cyberraum. Inspiriert vom Bild der Umweltverschmutzung als Folge der Industrialisierung, sprach Glättli von einer Datenverschmutzung. Daten würden gesammelt ohne zu wissen, was später daraus für Applikationen generiert würden. Das Prinizip „produce, reuse, recycle“ sei sinnvoll für die klassische Industrie, im digitalen Zeitalter müsse man allerdings das Prinzip abändern zu „reduce, reuse, recycle.“ Es gelte dafür zu sorgen, dass möglichst wenige Daten überhaupt gesammelt würden.

Balthasar Glättli

Für ihn ist klar, dass Plattformen und Datenkraken nicht von sich aus Datenschutz vorantreiben werden. Auch die Industrie kümmerte sich nicht von sich aus um den Umweltschutz. „Wenn der Staat das nicht tut, werden die Bürgerinnen eines Tages den digitalen Aufstand wagen“, ist sich Glättli sicher. Daten verweigern heisse heute, sich auf die ungünstige Seite des digitalen Grabens zu begeben.  „Technisch Versierte können noch so tolle Lösungen finden, die Masse der Mitmenschen wird nicht in diese technischen Biotope kommen“, sagt Glättli. Digitaler Selbstschutz sei daher kein Weg vorwärts, vielmehr sei der Staat in der Pflicht. Er fordert wie auch die Piraten und Konsumentenschützer, dass für Online-Dienste auch mit Geld statt mit seinen Daten bezahlen könne, wer dies wünsche. Die relevanten Daten müssten aber aus den privaten „Datensilos“ befreit werden, um sie als Potenzial einer Gemeinwohlwissensökonomie zugänglich zu machen. Dass aber die privaten Datensammler die Daten freiwillig interessierten Anwendern einer Gemeinwohlökonomie zur Verfügung stellen würden, sei eine Illusion.

Weitere Informationen zum eGov-Fokus finden Sie hier.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

#SocialWork4.0 #Digital #BigData – Chancen und Herausforderungen der digitalen Gesellschaft

Wir leben in einer Gesellschaft, in der die Medienvielfalt unser kommunikatives Handeln nicht nur beeinflusst, sondern auch steuert. Das mit dem Buchdruck begann, wird in Zukunft vielleicht mit Robotern weitergeführt: Die Digitalisierung ist nicht mehr wegzudenken – auch nicht bei einer Profession, bei der der Mensch im Mittelpunkt steht.

Um die Sozialhilfegelder für den kommenden Monat zu bekommen, muss die Klientin online einen kurzen Fragebogen ausfüllen. Sie kann dies auf ihrem Smartpho- ne tun oder auf jedem anderem Gerät, das mit dem Internet verbunden werden kann. Ihr Sozialarbeiter, der die Zahlung prüft, heisst Avo. Avo ist braunhaarig, hat grüne Augen und eine ruhige Stimme, er ist einfühlsam und hilfsbereit. Er kann jede Frage beantworten, sei es eine rechtliche oder eine zu einem familiären Problem. Und er ist jederzeit verfügbar. Avo ist eine wichtige Ansprechperson für die Klientin geworden, er existiert – jedoch nur virtuell. Er ist eine intelligente Weiterentwicklung der heute üblichen Avatare.

Was heute noch etwas merkwürdig anmuten mag, könnte ein Zukunftsszenario der wirtschaftlichen Sozialhilfe sein. Wie Bancomaten die Schalterfrauen und -männer in den Banken ersetzt haben, könnten Avatare oder Roboter vielleicht bald die Sozialarbeitenden in der Beratung ersetzen. Eine Studie geht davon aus, dass 47 Prozent der aktuellen Arbeitsplätze in den USA in den nächsten ein bis zwei Jahrzehnten infolge der Digitalisierung ersetzt werden (vgl. Frey & Osborne, 2013, S. 38 ff.). Würde dieses Szenario auf die Schweiz zutreffen, hätten die Fachpersonen der Sozialen Arbeit nicht nur mit einer grösseren Anzahl Klientinnen und Klienten zu tun, sie würden eventuell gar selber zu dieser Klientel gehören. Noch sind wir zwar nicht soweit. Die Mediatisierung,  also  die  «zeitliche,  räumliche  und  soziale Durchdringung des Alltags mit Medien» (Nadia Kut- scher, Thomas Ley & Udo Seelmeyer, 2015, S. 3), und die Digitalisierung unseres Lebens bergen jedoch neue Herausforderungen für die Soziale Arbeit. Sie eröffnen aber auch Chancen.

Vom Buchdruck zur «Liquid Democracy»
Mit der Erfindung des Buchdruckes im 15. Jahrhundert wurde es möglich, Informationen schriftlich in Massenauflagen zu veröffentlichen. Dies bedeutete auch, dass die Informationsmacht im Laufe der Zeit immer weiter demokratisiert wurde – bis zum heutigen Inter-net, in dem jede und jeder publizieren kann. Wobei die «Liquid Democracy», die flüssige Demokratie, die eine Mischung aus direkter und repräsentativer Demokratie darstellt, wie sie das Internet ermöglicht, nicht unumstritten ist (vgl. Passig & Lobo, 2012). Doch ihre massive Wirkung ist klar ersichtlich, wie nicht zuletzt das Beispiel der «Panama Papers» zeigte: Eine Gruppe von Journalistinnen und Journalisten konnte durch weltweite Vernetzung ein Datenleck nutzen und eine Unmenge von Daten aufbereiten und über diverse Medien zeitgleich veröffentlichen; mit einschneidenden Folgen für die Anbietenden von Offshore-Dienstleistungen und deren Kundinnen und Kunden.

Veränderter Umgang mit Daten
Die unglaubliche Menge an Daten, auch «Big Data» genannt, die online abgelegt sind, werden unterschiedlich behandelt. Manche Daten über uns stellen wir selbst frei zugänglich ins Netz, wie zum Beispiel unsere Adresse und Telefonnummer auf den virtuellen «Gelben Seiten» oder über einen eigenen Blog. Andere Daten von uns landen im Netz, ohne dass wir es wissen, beispielsweise über Protokolle der Vereins-Mitarbeit, Social-Media-Plattformen oder durch Websites unserer Arbeitgebenden. Weitere Daten würden wir nie veröffentlichen und wir wünschen, dass sie sicher verwaltet werden, wie etwa die Inhalte unseres Online-Banking-Accounts.

Auch Klientinnen und Klienten der Sozialen Arbeit wünschen, dass die Daten, die wir über sie sammeln, vertrauenswürdig bearbeitet und abgelegt werden. Die genutzte Informatik-Infrastruktur sollte in einer sicheren Umgebung eingebettet sein, sie soll Angriffen von aussen standhalten. Weiter dürfen nur befugte Mitarbeitende Zugriff auf die Daten haben. Die Daten – sowohl in Papier- als auch in elektronischer Form – müssen vernichtet werden, wenn sie nicht mehr benötigt werden (vgl. dazu das Datenschutzgesetz des Kantons Bern).

Ein Zukunftsszenario könnte sein, dass die Klientinnen und Klientinnen sich ihre Daten zu Nutze machen: So wie heute einige Krankenkassen ihren Versicherten für einen Bonus anbieten, ihre Gesundheitsdaten freiwillig festzuhalten und wiederum den Kassen zur Verfügung zu stellen, könnten in Zukunft vielleicht die Klientinnen und Klienten einen direkten oder indirekten Nutzen aus den Daten generieren, die sie den Sozialarbeitenden zur Verfügung stellen.

Zwischen Kontaktaufnahme und Datenschutz
Besonders Fachpersonen der Sozialen Arbeit, die mit der jüngeren Klientel zu tun haben, stellen sich tagtäglich neue Herausforderungen: Jugendarbeiterinnen und Jugendarbeiter in der Soziokulturellen Animation müssen sich sowohl mit oft wechselnden Social-Media-Platt- formen (wie Facebook, SnapChat, Twitter, etc.) auskennen und ihr Publikum online auf dem gerade angesagten Medium abholen. Gleichzeitig müssen sie den Datenschutz berücksichtigen. Denn nicht jeder Kontakt, der online hergestellt werden kann, darf auf der jeweiligen Plattform weitergeführt werden. In der Arbeit mit Kindern und Jugendlichen stellen sich – im Unterschied zur den oft gut geregelten Informatik-Lösungen in der Sozialarbeit mit Erwachsenen – laufend Fragen zum Einsatz von neuen Medien. Mitarbeitende benötigen hohe Medienkompetenzen, die Leitung muss sich strategischen Fragen zum Einsatz von Social Media stellen.

Neue Beratungsformen senken die Hemmschwelle
Eine Vorreiterin in der Online-Beratung ist die Stiftung Pro Juventute, die auf eine über 100-jährige Geschichte zurückblicken kann. 1970 versendete Pro Juventute erstmals Elternbriefe, ab 1992 gab es das «Help- o-Fon», ab 1999 die Nummer 147 mit einer während 24 Stunden und 365 Tagen erreichbaren Telefonberatung für Kinder und Jugendliche. Heute ist eine ebenfalls rund um die Uhr erreichbare Multi-Channel-Helpline für Kinder, Jugendliche und deren Bezugspersonen in Betrieb.

Beraten wird noch immer über das Telefon, jedoch auch über E-Mail, das Internet, Chat und SMS. Dabei wird zwischen synchroner Beratung (Telefon, Chat) und asynchroner Beratung (Web, E-Mail und SMS) unterschieden. Die verschiedenen Beratungsformen ermöglichen den Ratsuchenden mit ihren Fragestellungen unterschiedliche Zugänge zu Beratung; wobei die eine Beratungsform die andere nicht konkurriert, sondern ergänzt.

Thomas Brunner, Leiter der Pro-Juventute-Beratungsangebote und Lehrbeauftragter an der BFH, sagt dazu: «Lange wurde Telefon- und Onlineberatung als Konkurrenz zur klassischen Face-to-Face-Beratung an- gesehen. Mittlerweile weiss man, dass diese neuen Beratungsformen die Schwelle erheblich senken, über persönliche Fragestellungen und Probleme ‹zu sprechen›. Menschen erhalten so die Möglichkeit, schwierige Themen ohne Gesichtsverlust und ohne Angst vor Stigmatisierung oder anderen negativen Konsequenzen zu bearbeiten.»

Studien bestätigen denn auch, dass Online-Beratung beispielsweise über Video-Chat genau so effektiv ist wie eine Präsenz-Beratung – zudem ist sie günstiger. Diese Erkenntnisse sollte sich die Soziale Arbeit zu Nutze machen, nicht nur hinsichtlich ökonomischer Gesichtspunkte, sondern auch um Menschen, die keine Präsenz-Beratung wünschen, trotzdem zu erreichen. Dass Medienkompetenz und die Weiterentwicklung der Sozialen Arbeit im Zuge der Digitalisierung nicht dem Zufall oder wie selbstverständlich den «Digital Natives» überlassen werden darf, diesem Umstand trägt die BFH Rechnung. Medienkompetenz und Wissen um die Potenziale der Digitalisierung dürfen nicht weiterhin unsystematisch und ausschliesslich aus dem Alltagswissen generiert werden, sondern bedürfen einer Professionalisierung – einerseits um den Klientinnen und Klienten gerecht zu werden und andererseits um den Anforderungen, welche die Digitalisierung und Mediatisierung an die Sozialarbeitenden stellt, vorausschauend begegnen zu können.


Glossar

Avatar
Ein Avatar ist eine Software bzw. ein ExpertInnen-System, das sich in Form einer animierten Person zeigt, teilweise sogar in 3D. Ein Avatar soll im besten Falle Menschen beraten und unterstützen; die heute eingesetzten Avatare sind jedoch noch nicht sehr selbständig. Sie werden in Human- und Agent-Avatar unterschieden. Ein Human-Avatar funktioniert interaktiv: Eine Person spricht durch den Avatar und kann deshalb auf Äusserungen und Aktionen eines Gegenübers reagieren. Human-Avatare haben den Nachteil, dass sie nicht zeit- und personenunabhängig genutzt werden können. Ein Agent-Avatar kann nicht interagieren, er macht nur das, wofür er programmiert ist: Er spricht bzw. reagiert nach Drehbuch. Ein Agent-Avatar ist orts-, zeit- und personenunabhängig einsetzbar.

Digitalisierung
Der Begriff Digitalisierung bezeichnet die Umwandlung analoger Signale in digitale Signale zum Zweck, diese elektronisch zu speichern oder zu verarbeiten. Im weiteren Sinn wird unter Digitalisierung der Wandel hin zu elektronisch gestützten Prozessen mittels Informations- und Kommunikationstechnik verstanden.

Digital Natives und Digital Immigrants
Mit Digital Natives sind die Personen gemeint, die mit der Digitalisierung aufgewachsen sind – als frühster Jahrgang gelten die 1980 geborenen. Die Digital Immigrants sind Personen, die sich erst im Erwachsenenalter mit der Digitalisierung auseinandersetzten.


Literatur

  • Frey, Carl Benedikt & Osborne, Michael A. (2013). The Future of Employment: How Sursceptible are Jobs to Computerisation? Abgerufen von http://www.oxfordmartin.ox.ac.uk/publications/view/1314
  • Kutscher, Nadia, Ley, Thomas & Seelmeyer, Udo. (2015). Medi- atisierung (in) der Sozialen Arbeit. Baltmannsweiler: Schneider Verlag Hohengehren.
  • NZZ Folio. (April 2016). Künstliche Intelligenz. Zürich: NZZ Folio.
  • Passig, Kathrin & Lobo, Sascha. (2012.) Internet – Segen oder Fluch? Berlin: Rowohlt.
  • Pro Juventute. (2016). Stiftungsgeschichte. Abgerufen von https://www.projuventute.ch/Geschichte.69.0.html
  • Süddeutsche Zeitung. (2016). Panama Papers. Die Geheimnisse des schmutzigen Geldes [Website]. Abgerufen von http://panamapapers.sueddeutsche.de/
  • Verein sozialinfo.ch. (2013). Soziale Arbeit & Social Media. Leitfaden für Institutionen und Professionelle der Sozialen Arbeit. Bern: Edition Soziothek.
PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Big Data – schnell erklärt

Big Data steht für verschiedenste Methoden, implizit in Daten vorhandene Informationen explizit zu machen. Das ermöglicht unter anderem mehr Personalisierung – von der Politik über den Produktverkauf bis zur Medizin!

In aller Regel wird der Begriff dafür verwendet, dass mit mathematischen Instrumenten Informationen, die in Datensätzen implizit vorhanden sind, explizit gemacht werden. Dafür werden typischerweise grosse und nicht selten unterschiedliche Datensätze zuerst zusammengeführt und dann mit Mathematikinstrumenten und Informatikwerkzeugen ausgewertet. Dabei gibt es drei Standardformen:

  • «Klassisches» Big Data schätzt den Wert einer Kenngrösse, indem es die Korrelation mit anderen Kenngrössen nutzt – Obama identifizierte so im Wahlkampf die noch unentschiedenen Wähler, auf die er dann seine Kampagne konzentrierte
  • Exploratives Big Data sucht nach bisher unbekannten Mustern, die eventuell Bedeutung haben – z.B. weil sie auf Risiken hinweisen oder interessante Gruppen von Kunden identifizieren
  • Big Data «auf dem Graphen» nutzt komplexe semantische Zusammenhänge – z.B. um das Fehlen von Informationen zu entdecken

Neueste Formen von Big Data gehen über diese drei Standardformen hinaus und experimentieren beispielsweise mit Simulationswerkzeugen. Vorstellbar ist auch die Kombination von statischen Werkzeugen mit weiteren Modellen der abstrakten Algebra.

Konkrete Beispiele
Was heisst das alles konkret? Nun, das Vorgehen beim klassischen Big Data ist eigentlich recht simpel. Es wird erst kompliziert, wenn man es abstrakt zu erklären versucht. Darum einige einfache Beispiele. Angenommen Sie besitzen Daten über das Kaufverhalten von als Person identifizierten Kunden. Und sie möchten ein neues Produkt lancieren und gezielt bewerben. Dann werden sie zuerst ähnliche, bereits existierende Produkte in ihrem Verkaufsportfolio identifizieren und dann jene Kunden herausfiltern, die diese Produkte öfters gekauft haben. Die Wahrscheinlichkeit ist hoch, dass sie sich für das neue Produkt ebenfalls interessieren werden und es macht Sinn, die Marketingkampagne für das neue Produkt auf sie zu konzentrieren. Im Customer Relationship Management vieler Banken wird seit Langem ein ähnliches Verfahren eingesetzt, um neue Finanzprodukte gezielt Kunden zu promoten.

Ein anderes konkretes Beispiel lieferte der letzte Präsidentschaftswahlkampfs in den USA. Im amerikanischen Präsidentschaftswahlkampf geht es darum, in genügend vielen Staaten die meisten Stimmen zu bekommen. In der Schlussphase des Wahlkampfs ist in vielen Staaten klar, wer die Mehrheit haben wird. Dort wird dann kaum mehr Wahlkampf betrieben, weil es eine Ressourcenverschleuderung wäre. Der Wahlkampf konzentriert sich ganz auf die umkämpften Staaten. Aber auch dort macht es wenig Sinn, Wähler anzusprechen, die sich bereits klar entschieden haben, wen sie wählen werden. Wenn es also dem Team eines Kandidaten gelingt, die Unentschiedenen zu identifiziert, kann es seine ganze Energie auf deren Überzeugung konzentrieren, während eventuell die Konkurrenz einen Grossteil ihrer Energie auf Wähler konzentriert, deren Entscheidung bereits feststeht. Da die verfügbaren Ressourcen beschränkt sind, bedeutet die Identifikation der Unentschiedenen einen grossen Vorteil. Und genau dieser Vorteil hatte wesentlichen Anteil daran, dass Obama auch die zweite Wahl gewann. Sein Team konnte mittels Big Data die Unentschiedenen identifizieren. Sie nutzten dabei die Tatsache, dass in den USA über Personen weit mehr Informationen einfach beschaffbar sind als in Europa – u.a. Informationen zum Kaufverhalten – und überprüft en und verbesserten die Ergebnisse von Big Data mit gezielten Experimenten.

Ein Beispiel für Big Data auf dem Paragraphen ist das Suchen nach Anhaltspunkte für organisierte Kriminalität, in dem man verdächtige
Beziehungskonstellationen oder Transaktionsketten identifiziert, die auf Geldwäscherei hinweisen.

Andere Beispiele sind intelligente Suchanwendungen in der Wissenschaft und im Patentwesen, die von einem scheinbaren Paradoxon profitieren: Es ist einfacher ein Dokument in einer Menge ähnlicher Dokumente zu finden (zwischen denen Querbeziehungen existieren) als in einer Menge sehr unterschiedlicher Dokumente (die zueinander keinen Bezug haben).

Ein typisches Beispiel für exploratives Big Data ist das Suchen nach guten Produktkombinationen. Seit Langem bietet der Verkauf von Extraausstattungen im Autohandel eine lukrative Einnahmequelle. Eine Zusammenstellung von Extras kann für Kunden dadurch besonders attraktiv gemacht werden, das sie als Paket verkauft wird, wobei der Kunde beim Kauf des ganzen Pakets einiges «spart» (verglichen mit der Summe der Einzelpreise für die Extras). Um verlockende Pakete zu schnüren, ist es aber notwendig, zu wissen, welche Kombinationen von Extras für Kunden besonders attraktiv sind. Deshalb wird in Daten über Kundenpräferenzen nach Mustern gesucht, die auf attraktive Paketzusammenstellungen hinweisen. Dieses Vorgehen wird freilich nicht nur im Autohandel  praktiziert. Ganz ähnlich lassen sich so auch Produkte zusammensetzen, die am Ende teurer verkauft werden können als ihre Einzelbestandteile – nicht zuletzt im Lebensmittelhandel. Die Liste möglicher Beispiele ist lang. Wichtige Anwendungsbereiche für Big Data sind Marketing und Verkauf, Politikgestaltung (u.a. Stadtentwicklung, Sozial- und Gesundheitspolitik), öffentlichen Verwaltung (u.a. Verkehrsmanagement, in Zukunft eventuell Umgang mit Randalen), personalisierte Medizin und wissenschaftliche Forschung ganz generell. Das grosse Versprechen von Big Data ist dabei, dass schwierige und aufwendige Untersuchungen von kausalen Zusammenhängen («aus A folgt zwingend B») durch Korrelationsanalyse («A und B treten häufig gemeinsam auf») ersetzt werden können. Wobei insbesondere das klassische Big Data auf das Individuum spielt. Einzelne werden als Ziele für was auch immer ausgesucht, beziehungsweise bekommen sie personalisierte Angebote. Im Fall von personalisierten medizinischen Therapien ist der gesellschaftliche Nutzen hoch, mindestens kaum bestritten. Im Fall von personenbezogener manipulativer Werbung steht eine gesellschaftliche Bewertung von Big Data dagegen noch aus.

Das menschliche Big Data
Der Medienkünstler Peter Weibel thematisiert die Tatsache, dass wir alle in einer Big-Data-Welt leben. Tatsächlich können wir aus grossen Datenmengen relevante Information herauszufiltern und quasi eine Nadel im Heuhaufen finden – allerdings eine Nadel, an der ein Faden festgebunden ist, der uns das Finden erleichtert.

Das wichtigste Instrument für dieses menschliche Big Data ist die Nutzung von impliziten Hinweisen. Oft ist es die Summe von Details, von denen jedes für sich unbedeutend ist, die uns eine Lagebeurteilung ermöglicht – beispielsweise in der Polizeiarbeit. Wird ein ertappter Einbrecher zur Waffe greifen? Wird der Fanmarsch von Fussballfans in Gewalt ausarten? Die Antwort bestimmt den Fortgang des Geschehens. Sie lässt sich zwar nicht mit Sicherheit aus den verfügbaren Information ableiten, aber trotzdem kann sie von erfahrenen Polizisten ziemlich zuverlässig gegeben werden. Dabei kann man drei Phänomene beobachten: Erstens hängt die Zuverlässigkeit der Analyseergebnisse davon ab, dass die richtigen Informationen gesammelt werden. Zweitens wird der tatsächliche Ablauf durch Handlungen beeinflusst, die sich aus der Situationsanalyse ergeben. Teilweise haben wir es also mit selbsterfüllenden Prophezeiungen zu tun. Drittens lautet die Zielvorgabe deshalb nicht, möglichst präzise Prognosen zu generieren, sondern Geschäftsziele zu erreichen – in unserem Beispiel die Minimierung von Gewalt.

All das gilt auch für maschinelles Big Data:

  1. Es ist entscheidend, dass man die passenden Informationen besitzt. Je nach verfügbaren Informationen kann ganz Unterschiedliches beim Anwenden der Big-Data-Werkzeuge herauskommen.
  2. Big Data findet in einem dynamischen Prozess statt, in dem die Daten sich durch Handeln verändern können. Die Umsetzung beeinflusst die Richtigkeit der Prognose.
  3. Big Data ist kein Glasperlenspiel mit dem Zweck von zweckfreien Zukunftsprognosen, sondern ein Mittel zur Nutzengenerierung im jeweiligen Geschäftskontext – sei es in der Wirtschaft, privat beim Wetten oder Pokern oder in der öffentlichen Verwaltung.

Denkfehler und verlockende Fiktionen
Eine Übertragung der Echtwelterfahrung auf Big Data ist also durchaus hilfreich. Sie beinhaltet aber auch die Gefahr, dass die Small-Data-Denkfehler aus dem Alltag uns auch bei der Nutzung von maschinellem Big Data in die Quere kommen. Wer den Satz von Bayes nicht verstanden hat, der sollte mit Big Data sehr vorsichtig umgehen. Zudem gibt es mehrere gefährliche Fiktionen, vor denen
man sich unbedingt hüten sollte.

  1. Erstens sollte man sich immer bewusst sein, dass Modellannahmen das Ergebnis von Big Data entscheidend beeinflussen, auch dann, wenn wir scheinbar ganz ohne Modelle Daten analysieren. Denn schon bei der Erzeugung von Daten spielen Modelle eine entscheidende Rolle. Es gibt in dieser Hinsicht keine natürlichen Rohdaten (Rohdatenfiktion).
  2. Zweitens können auch grossen Datenmengen einen klaren Bias haben. Nur weil wir viele Daten sammeln, können wir daraus nicht ableiten, dass unsere Daten in irgendeiner Weise repräsentativ sind (Statistikfiktion).
  3. Drittens liefert Big Data nicht einfach so gute Resultate (Simplizitätsfiktion) – es verlangt mindestens mathematische, technische, fachliche und rechtliche Kompetenzen.
  4. Viertens können Ergebnisse von Big Data Analysen ohne verständliche Erklärungsmodelle für die zugrunde liegenden Zusammenhänge oft nicht sinnvoll eingesetzt werden (Korrelationsfiktion). Stellen Sie sich einen Polizeieinsatz von Wasserwerfern vor, der damit begründet wird, dass Big Data Massenunruhen prognostiziert hat – und im Nachhinein stellt sich heraus, dass eine überdurchschnittlich hohe Zahl roter Halstücher der Auslöser war.
  5. Fünftens schaffen viele Daten noch keine Transparenz (Transparenzfiktion).
  6. Sechstens ist dauerhafte Anonymisierung schwer zu garantieren (Anonymisierungsfiktion).
  7. Siebtens bringen Big Data nicht notwendigerweise Nutzen für alle (Fairnessfiktion). Wer über die Daten von anderen verfügt, kann damit viel Gewinn machen. Die Masse der Datenlieferanten bekommt zwar meist im Tausch kostenlose Online-Dienste, hat aber keinen Anteil an den Milliardengewinnen und gerät im schlimmsten Fall sogar in ein Abhängigkeitsverhältnis.
  8. Last but not least: Was die Anwendungen von Big Data in der Politik betrifft, so besitzt die Vorstellung einer Welt mit einer computergestützten Demokratie, in der Fakten eine viel grössere Rolle spielen als in unserer heutigen Demokratie, recht viel Alptraumpotenzial – gerade weil dabei komplexe Probleme mit Computern vereinfacht werden. Denn es ist zu Recht sehr umstritten, dass man hohe Komplexität durch Automatisierung kontrollieren kann (Automatisierungsfiktion). Darüber hinaus kann der Einsatz von Big Data für Zukunftsprognosen in der Politik zu einer «Geschichtsbremse» führen. Da Big Data die Zukunft nur aus der Vergangenheit ableiten kann, wird durch eine unreflektierte «gläubige» Anwendung der Raum für kreative Innovationen eingeschränkt. Das ist gerade dort, wo die nächste (prognostizierbare) Wahl wichtiger ist als der langfristige (viel weniger prognostizierbare) Erfolg, eine echte Gefahr.

Schlussfolgerung
Big Data besitzt ein gewaltiges, derzeit nur in Ansätzen abschätzbares, Nutzenpotential. Es wird die Wirtschaft, unser persönliches Leben und das Staatswesen sehr stark verändern. Ignoriert die öffentliche Verwaltung das Thema, wird sie in Zukunft ihre Aufgaben nicht mehr zufriedenstellend erfüllen können. Gleichzeitig schafft aber Big Data auch neue, grosse Gefahren für die Gesellschaft, die sich verheerend auswirken könn(t)en. Es ist deshalb Zeit, dass wir uns ernsthaft mit Big Data auseinandersetzen!

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Stadtplanung und Umweltauswirkungen

In der Schweiz verursacht der Transportsektor rund ein Drittel des gesamten Energieverbrauchs. Das Forschungskompetenzzentrum SCCER Mobility entwickelt Wissen und Technologien, die wesentlich sind für den Übergang von den aktuell auf fossilen Brennstoffen basierenden Transportsystemen zu ökologischeren Lösungen.

Das SCCER Mobility (siehe Begriffserklärung am Ende des Beitrags) will die komplexe Dynamik der Mobilität, des Transports und der gesamten Energiesysteme – einschliesslich ihrer Wechselwirkungen mit der Stadtplanung – verstehen lernen. Der Kompetenzbereich «Dencity – Urbane Entwicklung und Mobilität» der Berner Fachhochschule BFH hat zusammen mit dem Institut für Umwelt der ETH Zürich, das Ziel, die Konsequenzen der Wechselwirkung zwischen den bestehenden Gebäudetypologien und den CO2-Emissionen aus den privaten Haushalten aufzuzeigen.

Um dieses Ziel zu erreichen, wurde das automatisierte Dencity-Analysemodell (ADAM) entwickelt, das bestehende Gebäudetypologien (siehe Grafik) für die ganze Schweiz identifiziert. Dieses Modell kann mit einer immensen Menge an unterschiedlichem Dateninput umgehen. Zu diesem Zweck muss ADAM vollständig integrierbar sein in das Ökosystem des bestehenden schweizerischen Geografischen Informationssystems GIS (Informationssystem zur Erfassung, Bearbeitung, Organisation, Analyse und Präsentation räumlicher Daten). ADAM ist in der Lage, die spezifischen Koordinatensysteme der verschiedenen Dateninputs zu identifizieren, abzustimmen und zu überlagern. Das automatisierte Analysemodell basiert auf einem eigenen Algorithmus, wobei dieser die Verknüpfung von Open-Source-Daten, Daten aus dem schweizerischen Bundesamt für Statistik, dem Bundesamt für Raumentwicklung sowie Daten zu CO2-Emissionen je Einwohner kombiniert. Der spezifische Output von ADAM ist eine neuartige Datenbank sowie Karte für alle bestehenden Gebäudetypologien der Schweiz mit ihrer Haushaltsidentifizierung, Koordinaten und CO2-Ausstoss. Diese Datenbank unterstützt nun bei stadt- und raumplanerischen Analysen und Optimierungen und dient Städten und Gemeinden als Entscheidungsgrundlage für Planungen.

Die durch ADAM analysierten Gebäudetypologien von links nach rechts mit der entsprechenden Farbcodierung: Punkthäuser, geschlossener Block, Zeilenhäuser, offener Block; Spezialfälle und Sonderformen werden in eine separate Kategorie aufgenommen.

Die durch ADAM analysierten Gebäudetypologien von links nach
rechts mit der entsprechenden Farbcodierung: Punkthäuser,
geschlossener Block, Zeilenhäuser, offener Block; Spezialfälle und
Sonderformen werden in eine separate Kategorie aufgenommen.

Weiterführendes Forschungspotenzial 

Die Analysemöglichkeiten, die sich in Bezug auf Planungsszenarien erschliessen, sind immens. ADAM kann als Zugang zu «Big Data» (Datenmengen, die zu immens und komplex sind, als dass sie mit manuellen und klassischen Methoden der Datenverarbeitung auszuwerten wären) und zur räumlichen Analyse gesehen werden. Es bereitet «Big Data» und Komplexität für das Tagesgeschäft von Architekten, Planern und Ingenieuren auf. Die Stärken des Analysemodells sind die Handhabung grosser, komplexer Datenmengen sowie die Extraktion der notwendigen Grundlagen. ADAM identifiziert Daten, verarbeitet, kombiniert und ordnet zu, um eine definierte Frage zu lösen.


SCCER Mobility
Im Rahmen des Aktionsplans «Koordinierte Energieforschung Schweiz» hat die KTI den Auftrag, den Aufbau interuniversitär vernetzter Forschungskompetenzzentren, sog. Swiss Competence Centers for Energy Research (SCCER), zu finanzieren und zu steuern. Das SCCER Efficient Technologies and Systems for Mobility (SCCER Mobility) ist im Aktionsfeld «Effiziente Konzepte, Prozesse und Komponenten in der Mobilität» angesiedelt.


 

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

«Wir sind in eine Leibeigenschaft reingeschlittert»

Ernst Hafen sieht unsere digitale Identität in den Händen von Google, Facebook und Co. Ein Weg, diese Art von Leibeigenschaft aufzulösen und die Kontrolle über all seine persönlichen Daten, vor allem die Gesundheitsdaten, zu erhalten, wäre eine genossenschaftlich organisierte Datenbank.

Interview: Reinhard Riedl

Was ist Ihre Vision im Verein Daten und Gesundheit?
Wir haben als Individuen zunehmend auch eine digitale Persönlichkeit. Damit begeben wir uns in eine Art Leibeigenschaft. Wir akzeptieren mit der Nutzung beispielsweise von Google, Facebook und Twitter, dass diese Dienste Daten über uns sammeln. Das primäre Ziel des Vereins ist, die Kontrolle über alle Gesundheitsdaten zu erhalten. Es ist meine Überzeugung, dass die Leute freiwillig mitmachen und einen Beitrag dazu leisten. Habe ich zum Beispiel eine seltene Krankheit, bin ich daran interessiert, möglichst rasch eine Therapie zu finden. Dafür möchte ich mich nicht innerhalb eines Gesundheitssystems, sondern global vernetzen können. Die Individuen könnten dadurch selbstständig Treiberinnen und Treiber einer personalisierten Gesundheit werden beziehungsweise
dieser persönlichen Datenökonomie, die entsteht.

Können Sie das Ziel einer personalisierten Gesundheit beziehungsweise einer personalisierten Medizin näher umschreiben?
Personalisierte Medizin heisst, dass wir alle unterschiedlich sind. Heute kennt man zunehmend die molekularen Grundlagen, die für diese unterschiedlichen Empfindlichkeiten verantwortlich sind. Sie können das mit einem Buch vergleichen: Wäre jeder tausendste Buchstabe ein Druckfehler, würde das den Sinn des Buchs nicht verändern. Aber im Erbgut sind diese kleinen Unterschiede verantwortlich für unser Aussehen und für die Empfindlichkeit für Krankheiten oder für die Reaktionen auf Medikamente. Wir sind am Anfang einer Revolution in der personalisierten Medizin. Wenn wir weiterkommen wollen, müssen wir alle Daten erheben, die wir heute können. Einerseits durch Genomanalysen, auf der anderen Seite aber auch über Mobile Health Apps, die alle möglichen Gesundheitsparameter über das ganze Leben aufzeichnen. Um wirklich genaue Voraussagen machen zu können, sind die Daten von Millionen von Leuten nötig. Es ist ein Big-Data-Problem, dass man nicht anhand einzelner Gensequenzen analysieren kann, sondern nach Mustern suchen muss, die aus diesen Datensätzen herauskommen.

Es gibt die These, dass die sozialen Lebensumstände einen Einfluss auf unsere Krankheitsrisiken haben. Bräuchte man nicht zusätzlich die Daten über das Leben, die digitale Identität?
Da haben Sie recht. Wie viel ich mich bewege, wie viel ich Auto fahre, wo ich lebe, welche Reisen ich mache, all das sind natürlich Sachen, die unsere Gesundheit beeinflussen. Da sind die Daten zentral, die wir zusehends über Mobile-Health-Technologien aufnehmen können. Ich weise auch immer gerne darauf hin, dass Google wahrscheinlich mehr über Ihren Gesundheitszustand weiss als Ihre Ärztin oder Ihr Arzt: welche Websites Sie anschauen, welche Tweets Sie machen, auch welche Telefongespräche Sie führen. Damit hat Google viel aggregiertere Information als Ihr Arzt, der bei Ihrer letzten Untersuchung Ihren Gesundheitszustand mit ein paar Notizen festgehalten hat. Deshalb sind all die Informationen, die Google hat, sehr relevant für die Gesundheit.


eGov_2_2014_17-_HafenErnst Hafen ist Professor am Institut für Molekulare Systembiologie und ehemaliger Präsident der ETH Zürich. Nebst seinen 26 Jahren in der akademischen Forschung, für die er mit mehreren Preisen ausgezeichnet wurde, setzte er sich aktiv für den Dialog zwischen Forschung und Gesellschaft und für die Umsetzung wissenschaftlicher Erkenntnis in kommerzielle Produkte ein. Als gelernter Genetiker hat Ernst Hafen ein starkes Interesse an der Humangenetik und an der personalisierten Medizin. Er postuliert, dass eine individuelle Kontrolle über persönliche Gesundheitsdaten einen Schlüsselfaktor für eine bessere und effektive Gesundheitsversorgung darstellt. Im Jahr 2012 gründete er den Verein Daten und Gesundheit. Dieser beabsichtigt, die Errichtung einer genossenschaftlich organisierten Gesundheitsdatenbank in der Schweiz zu fördern.


Heisst das, dass Google, Facebook und Co. mit der innovativen Nutzung unserer Daten Geld verdienen und für die anderen nichts bleibt?
Nein, ich glaube, das geht auch anders, wir haben nur noch nicht gelernt, damit umzugehen. Wir sind in eine Leibeigenschaft reingeschlittert, weil wir die Services gern nutzen, das Internet faszinierend finden und es gratis ist. Aber ich bin überzeugt, dass das nicht so weitergehen kann. Eine genossenschaftlich organisierte Datenbank, wo jeder freiwillig ein Konto eröffnen kann und dort all seine Daten sammeln und vor allem entscheiden kann, was er damit macht, ist im Prinzip die Antwort auf diese digitale Leibeigenschaft. Google kann weiterhin meine Klicks und meine Querys haben, aber ich möchte Kopien all dieser Events erhalten.

Was sind im Augenblick die grossen Herausforderungen, wenn man eine solche Genossenschaftsidee für die Schweiz realisieren will?
Die Herausforderung ist einerseits, eine Datenbank zu bauen, die so sicher ist, dass die Leute ihr vertrauen. Andererseits muss man den Leuten sagen: «Hört mal, ihr seid in dieser Leibeigenschaft. Ihr hättet eigentlich viel mehr davon, wenn ihr alle Daten auf einem Konto hättet.» Wenn wir über persönliche Daten und insbesondere Gesundheitsdaten reden, geht es oft darum, dass der Staat entscheidet, was damit gemacht wird. Aber die Wirtschaft zum Beispiel wird stimuliert, weil man mit seinem Geld machen kann, was man will. Dieses Umdenken ist bei persönlichen Daten noch nicht passiert.

Es ist schwer vorstellbar, wie so grosse Datenmengen, die viele Lebensbereiche betreffen, anonym in einer Datenbank angelegt werden können. Wie kann man mit diesem Problem erfolgreich umgehen?
Wichtig ist, dass die Daten auf den Konten nie herausgegeben werden. Es können lediglich Anfragen oder Querys für Daten gemacht werden, die Sie freigeben. Ein weiteres Ziel der Genossenschaft ist, den Bürgerinnen und Bürgern und nicht den Shareholdern zu dienen. Die Genossenschaft schaut, dass keine identifizierbaren Daten rausgegeben werden. Das Identifizieren von Daten kommt erst, wenn man mehrere Silos von Daten hat. Wenn man diese zusammenführen würde, könnte man nach und nach die betreffenden Personen identifizieren. Das kann man nie ganz vermeiden, aber man kann es minimieren.

Wie kann man Daten aus ganz unterschiedlichen Quellen zusammenführen?
Wir sind darauf angewiesen, dass wir mit den Datenprovidern zusammenarbeiten und Apps entwickeln können, die den Import dieser Daten automatisch generieren. Es bleibt eine Tatsache, dass wir eine Riesenmenge von Daten in verschiedenen Qualitäten und mit verschiedenen Standards haben. Alle Initiativen, die auf eine Top-down-Standardisierung ausgerichtet waren, sind weitgehend gescheitert. Aber erstens sind heute die Suchtechnologien so gut, dass man aus vielen strukturierten und unstrukturierten Daten viel Information bekommt. Zweitens glauben wir, dass die Leute selber einen grossen Beitrag zur Kreation ihrer eigenen Daten leisten und uns mitteilen, wenn Daten fehlerhaft sind. Das wird die Qualität erhöhen. Letztlich wird diese Genossenschaft auch über Big-Data- Analytics und Machine Learning damit beginnen können, die Daten bottom up zu standardisieren.

Was ist der Unterschied Ihrer Bestrebungen zu denjenigen von E-Health Schweiz, wie es vom Bundesamt für Gesundheit organisiert wird?
Die beiden Initiativen vom Verein Daten und Gesundheit und vom Bundesamt für Gesundheit (BAG) sind komplementär zueinander. E-Health Schweiz, wie es vom BAG organisiert wird, hat das absolut gerechtfertigte Bedürfnis, die Schnittstellenproblematik zu verbessern, sodass die Daten im schweizerischen Gesundheitssystem besser fliessen. Unsere Motivation ist das primäre Empowerment der Bürgerinnen und Bürger. E-Health Schweiz geht es um die Patientendaten, uns geht es um alle persönlichen Daten. Weiter sind wir global und nicht national aufgestellt. Es kann sein, dass es in 20 Jahren keine E-Health-Schweiz-Strategie gibt, aber dass die meisten Bürgerinnen und Bürger bereits ein Konto haben und ihrer Ärztin oder ihrem Arzt Zugang zu diesem Konto geben können.

Wo wird das Gesundheitswesen in 30 Jahren sein?
Eine pessimistische Antwort wäre, dass sich nicht viel ändern wird, weil das ganze Gesundheitssystem sehr träge ist. Ich glaube aber  nicht daran. Vor 20 Jahren hat auch noch niemand die Smartphones vorausgesagt. Um die Schnittstellenproblematik zu lösen, müssen  alle im schweizerischen Gesundheitssystem mitmachen, sonst funktioniert es nicht. Aber das Finden von effektiveren Medikamenten oder das frühzeitige Entdecken von Nebenwirkungen von Medikamenten sind globale Fragen, die nicht immer durch lokale Gesundheitssysteme gelöst werden können. Ich glaube, dass wir hier in den kommenden 30 Jahren eine Bürgerzentrierung hinbekommen. Einfach weil es heute durch digitale Daten möglich ist. Jetzt müssen wir nur noch die Awareness schaffen.

Unsere traditionelle Abschlussfrage: Wie soll der Staat der Zukunft aussehen?
Es täte der Schweiz gut, die Demokratie und den Kapitalismus zu hinterfragen. Es braucht gesetzliche Rahmenbedingungen, aber es braucht auch eine grössere Selbstbestimmung des Individuums. Wenn wir von Datenschutz sprechen, sprechen wir immer davon, dass der Staat Regeln aufstellen muss, um Daten zu schützen. Das ist ein passives Modell. Ein demokratisch aktives Modell ist die digitale Selbstbestimmung. Es sollte nicht eine staatliche Genossenschaft geben, es sollte mehrere geben, wie es mehrere Banken gibt. Solange die Daten miteinander verlinkt sind, wie sie das im Finanzbereich über SWIFT auch sind, haben wir im Prinzip die Datenökonomie geschaffen. Das gibt der Bezeichnung Demokratie nicht nur ein politisches Gewicht, sondern auch eine ökonomische selbstbestimmte Kraft, die globale Auswirkungen hat. Es täte der Schweiz gut, hier eine Vorreiterrolle zu spielen.

Herzlichen Dank für das Gespräch.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Eine nationale Dateninfrastruktur für die Schweiz: Aus den internationalen Erfahrungen lernen

Um die Früchte der digitalen Ökonomie auch in der Schweiz ernten zu können, muss u.a. die Vision einer nationalen Dateninfrastruktur (NDI) entwickelt und realisiert werden. Zentraler Bestandteil einer NDI ist ein Fundament bestehend aus den wichtigsten Informationen über eine Gesellschaft, welche in Basisregistern abgelegt sind. Eine Untersuchung ausgewählter internationaler Best Practices im Rahmen einer Master-Arbeit kam zum Schluss, dass der Fall Dänemark insbesondere für die Schweiz ein wertvolles Beispiel darstellt.

Daten als Infrastruktur betrachten 
Daten sind in Analogie zu traditionellen materiellen Infrastrukturen wie Strassen- oder Schienennetze für die einwandfreie Funktion einer Volkswirtschaft von hoher Bedeutung. So können Daten von einer beliebigen Zahl von Nutzern für eine breite Palette von Zwecken als Infrastruktur-Ressource für die nachgelagerte Erzeugung von Produkten und Dienstleistungen verwendet werden. Mit der fortschreitenden Digitalisierung der Gesellschaft nimmt die Menge an Daten ständig zu, wobei dieser Trend vor dem öffentlichen Sektor keineswegs haltmacht. Die Herausforderungen des digitalen Zeitalters werden durch die neue Schweizer Datenpolitik im Rahmen der Dachstrategie «Digitale Schweiz» aktiv angegangen. Die Kernziele sind die Schaffung von Wachstum, Wohlstand und Chancengleichheit sowie die Förderung von Partizipation, Transparenz und Sicherheit. In die Teilstrategie «Daten und digitale Inhalte» betten sich Daten mit Infrastruktur-Charakter ein. In diesem Kontext steht die nationale Dateninfrastruktur (NDI), welche u.a. Elemente aus den Bereichen E-Government und Open Government Data miteinander vereint. Die Bereitstellung von Behördendaten zur freien Wiederverwendung ist eine erste Etappe. Von grossem Interesse sind dabei die grundlegendsten Informationen über eine Gesellschaft, welche in Basisregistern gespeichert sind.

Einbettung und Eckdaten zur Untersuchung 
Im Rahmen einer Master-Arbeit, welche das Ziel hatte, Konzepte, Anforderungen und Herausforderungen mit Blick auf eine nationale Dateninfrastruktur in der Schweiz zusammenzutragen und zu reflektieren, wurde der Fokus auf den Aspekt der Basisregister gelegt und der Fall Dänemarks als besonders exemplarischer Fall in dieser Hinsicht beschrieben.
Als Vorbereitung eines grösseren Forschungsprojektes im Bereich «Big Data» wurde parallel dazu am E-Government-Institut eine von der Hasler Stiftung finanzierte Studie durchgeführt, welche erste Erkenntnisse hinsichtlich Ausgestaltung und Governance einer solchen Infrastruktur produzierte. Aktuell beschäftigt sich das Forschungsteam mit den Fragen, wie eine NDI für die Schweiz ausschauen soll und wie die organisationsübergreifende Zusammenarbeit und die Beteiligung der verschiedenen Akteure im Hinblick auf den Aufbau und die Pflege einer solchen Infrastruktur konkret gestaltet werden sollen (vgl. Kasten).


Nationale Dateninfrastruktur: weiterführende Informationen


Was ist eine nationale Dateninfrastruktur?
Eine NDI ist eine landesweite technische Infrastruktur (Portale, Plattformen, Services, etc.), die den Zugang zu und den Austausch von Daten auf Basis von definierten Regeln ermöglicht. Zweck einer solchen Infrastruktur ist die Unterstützung datenbasierter Wertschöpfung bzw. die Freisetzung potentiellen Mehrwertes bestehender Daten. Die angedachte Infrastruktur versteht sich nicht als monolithischer Block und Insellösung. Behördendaten bilden dabei den Grundstock; es besteht noch Klärungsbedarf, welche weiteren Daten genau dazu gehören sollen. Komponenten und Governance-Anforderungen an eine NDI können aus vier Perspektiven betrachtet werden: Open Data, Basisregister, Mydata und Big Data (vgl. Abb. 1).

national-datenbankinfrastrukur

Abb. 1: Vier Perspektiven einer nationalen Dateninfrastruktur

Das dänische «Good Basic Data for everyone Program»
Dänemark stellt ein sehr gutes internationales Beispiel dar, wie der Aufbau einer NDI angegangen werden kann. Das Land legte die Grundbausteine für eine NDI, inklusive der kritischsten Fragen der Finanzierung und der Governance, in weniger als einem Jahr: Im Rahmen des «Good Basic Data for everyone Program» (BDP) wurden die Konzeption und die Errichtung eines vernetzten Systems von Basisregistern, welches sowohl die öffentliche Verwaltung wie auch die Allgemeinheit mit qualitativ hochstehenden Daten versorgt, in die Wege geleitet (de Vries und Pijpker 2013).
Die dänische Agentur für Digitalisierung stufte Informationen, welche öffentliche Behörden über die grundlegenden Bereiche der dänischen Gesellschaft sammelten, als Basisregister ein. In einem ersten Schritt wurden folgende Register als Bestandteil des BDP identifiziert: Adressdaten und mit Informationen angereicherte Ortsbezeichnungen, Karten und geografische Daten, Personen-, Unternehmens-, Gebäude- und Wohnungsregister sowie Grundbuch- und Grundstückbesitzregister (The Danish Agency for Digitization 2012, S. 19). All diesen Daten war gemeinsam, dass praktisch alle anderen domänen-spezifischen Bereiche innerhalb der Verwaltung einen Bezug zu einem Teil dieser Daten haben. Daher war das Hauptziel, dass die Basisregister quasi als Daten-Fundament in sich kohärent sind und somit zu einer höheren Konsistenz der Daten über Organisationsgrenzen hinweg führen (Jetzek 2016, S. 95). Abbildung 2 stellt die dänischen Basisregister und die Rolle des «Data Distributor» dar.

Basisregister

Abb. 2 – BDP Dänemark – Basisregister und Datenverteilungssystem (KMD 2016: 6)

Den Startschuss legte in Dänemark die nationale Strategie für Digitalisierung 2011-2015 (The Danish Agency for Digitization 2011). Diese erreichte die Schaffung einer Vision, welche sich auf einen echten öffentlichen Bedarf abstützte und die Themen Vernetzung von Schlüsselregistern und Open Government Data auf die höchste Regierungsebene portierte. In der Folge stellte sich ausgehend von den wichtigsten staatlichen Datenhaltern die Notwendigkeit der Vernetzung der Basisregister ein. Die Bottom-up-geprägte Vision hat das Vorgehen in Dänemark wesentlich beschleunigt. Dänemark startete das BDP-Programm im Jahr 2012 ursprünglich mit der Vision einer Vernetzung von zentralen Basisregistern mit dem Ziel, ein effizienteres und effektiveres Datenmanagement innerhalb der Verwaltung zu etablieren. Im Speziellen stand die Vision des «Only-once-Principle» im Fokus – d.h. Bürger und Unternehmen liefern der öffentlichen Verwaltung dieselbe Information genau einmal. Das Hauptziel des BDP war die Schaffung einer Infrastruktur, welche eine effizientere Verwendung von Basisdaten durch verschiedene Behörden und den privaten Sektor ermöglichte (Jetzek 2016, S. 95).

Besonderes Augenmerk bei der Realisierung einer NDI galt in Dänemark der Governance. Ziel war es, von Beginn weg alle wichtigen Stakeholder an Bord zu haben. Ein Kernelement des dänischen Vorgehens bestand in der Beschreibung eines übergeordneten Business Cases für die Verwendung der Basisregister, welcher mit Zahlen hinterlegt wurde. Damit konnten alle wichtigen Stakeholder innerhalb und ausserhalb der Verwaltung für das Vorhaben gewonnen werden, und der legitime Selbsttreiber der Verwaltung war gegeben, was dem Vorhaben entsprechend Vorschub leistete. Die übergeordnete Steuerung durch das Finanzministerium war ein wichtiger Erfolgsfaktor, weil spezifische finanzielle Probleme ohne politische Debatten überbrückt werden konnten. So liessen sich alle Verwaltungsstellen darauf verpflichten, sich wo immer sinnvoll der zentralen Register zu bedienen und Änderungen direkt dort nachzuführen. Gemäss de Vries und Pijpker (2013, S. 8ff.) erfolgte die Bearbeitung des Themas in adäquater Weise auf drei Stufen: In einem ersten Schritt wurden die System- und Qualitätsanforderungen durch IT-Spezialisten auf operativer Ebene beschrieben. In einem zweiten Schritt nahmen Top-Entscheidungsträger der Regierungsebene den finanzielle Ausgleich unter Berücksichtigung der Kosten und Nutzen auf Basis von detaillierten Business Cases für sieben Schlüsselregister vor. Dabei wurden Teilabkommen mit den Schlüsselregisterhaltern geschlossen, im Rahmen derer die nächsten Schritte beschlossen und ein Commitment zur Ausarbeitung von detaillierten Business Cases gegeben wurde. Das Finanzministerium koordinierte die innerhalb von acht Wochen zu erstellenden Business Cases durch die sieben schlüsselregisterführenden Departemente eng. Ziel war eine ausdifferenzierte Abschätzung der Kosten und des Nutzens. Durch dieses Vorgehen gelang dem Finanzministerium das «Schliessen des Hintertürchens». Die wichtigsten Stakeholder in der Regierung waren damit an Bord. Im Rahmen des dritten Schrittes wurde die Vorbereitung der politischen Entscheidungsfindung auf Ebene des Parlaments in Angriff genommen. Durch die Aggregation der verschiedenen Business Cases und durch das Einnehmen der Makroperspektive konnte das Finanzministerium aufzeigen, dass für die Verwaltung verlustreiche Business Cases durch gewinnbringende ausgeglichen werden konnten. Die Unterstützung der Politik konnte durch unterschiedliche Argumente gewonnen werden: Während die lokalen staatlichen Einrichtungen und die Ministerien vor allem von den internen Einsparungen angetan waren, liess sich das Parlament von der externen Wertschöpfung überzeugen. Im Ergebnis nahm das dänische Parlament das komplette Programm inklusive der langfristigen Finanzierung ohne grosse Debatte an.

Relevanz für die Schweiz
Auf der Grundlage der Open-Government-Strategie-Schweiz, der Schwerpunkte im E-Government und der Strategie «Digitale Schweiz» muss die Schweiz in naher Zukunft die Konzeption und ggf. Implementierung einer NDI diskutieren. Dazu gehört neben einer klaren Definition des Zwecks und der Eigenschaften einer NDI eine detaillierte Skizzierung der Roadmap, welche zum erwünschten Ziel führen wird. Die konkrete Ausgestaltung einer NDI ist stark vom gewählten Verwendungszweck und dem anvisierten Nutzen abhängig. Herausforderungen auf diesem Weg dürften für die Schweiz nicht nur technischer (z.B. Interoperabilität der beteiligten Systeme, Zugangsregelung), sondern auch organisatorischer und politischer Natur sein, wobei dem Föderalismus einen besondere Rolle zukommt. Der Case «Good Basic Data for everyone» in Dänemark, kann Ansätze aufzeigen, wie Basisregister sowohl für die beteiligten Akteure der öffentlichen Verwaltung als auch für die Allgemeinheit offen zugänglich gemacht und wie die Entscheidungsträger in Politik und Verwaltung vom Nutzen einer NDI überzeugt werden können.


Literaturverzeichnis

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.