Schlagwortarchiv für: Big Data

Conceptualizing a National Data Infrastructure for Switzerland

Abstract

A national data infrastructure (NDI) provides data, data-related services and guidelines for the
re-use of data to individuals and organizations. It facilitates efficient sharing of data, supports
new business models, and is thus a key enabler for the digital economy, open research, societal
collaboration and political processes. While several European countries have taken steps to set
up data infrastructures cutting across institutional silos, approaches vary, and there is no common
understanding of what a NDI exactly comprises. In Switzerland, activities are still at a
conceptual stage. In order to foster a shared vision of what a NDI is about, stakeholder
interviews were carried out with representatives of public administration, research, civil society,
and the private sector. There is broad consensus among key stakeholders that a NDI is to be
conceived as a nationwide distributed technical infrastructure allowing the sharing of data, based
on predefined rules. Our findings also suggest that the notion of a NDI should be approached
from four perspectives: a big data, a base register, an open data, and a mydata perspective. For its
implementation, effective coordination across several dimensions (ethical, legal, political,
economical, organizational, semantical, and technical) is crucial, which calls for a truly
multidisciplinary approach.

Publication (pdf)

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Call for Papers: Daten im E-Government

Die Ausgabe zum Themenschwerpunkt Big und Open Data beschäftigt sich im März 2018 mit dem Thema «Daten im E-Government».

Die grosse Frage lautet: Wie kann man die Zusammenarbeit in der Verwaltung zwischen autonomen Organisationen «minimal invasiv» gestalten? Anders gefragt: Wie kann man erfolgreich zusammenarbeiten, ohne dass sich die Beteiligten zu stark verändern müssen?

Eine These lautet: Für die organisationsübergreifende Zusammenarbeit genügt es, dass sich alle Beteiligten auf Standards für den Informationsaustausch einigen. Wir wollen in der Ausgabe «Daten im E-Government» diese These genauer untersuchen:

Welche Standards für den Informationsaustausch sind notwendig?

Was kann mit konkreten Standards erreicht werden?

Und wo liegen die Grenzen einer Standardisierung, die sich auf den Informationsaustausch beschränkt?

Wir laden Sie ein bis zum 5. Februar 2018 einen Abstract einzureichen.

Abstracts können an digitalsociety@bfh.ch gesendet werden.

Mögliche Themenfelder für Beiträge:

  1. Welche Datenstandards sind für die Förderung einer effektiven Behördenzusammenarbeit besonders wichtig?
  2. Welche Rolle spielen Registerharmonisierung und Registerintegration für die digitale Transformation des Staats?
  3. Welche Data Governance braucht es, um Prinzipien wie «Only Once» umzusetzen?
  4. Wie kann Datenschutz so implementiert werden, dass zwar der Schutz der Privatsphäre gewährleistet wird, die behördenübergreifende Zusammenarbeit aber nicht zu sehr beeinträchtigt wird?
  5. Wie schaut eine erfolgversprechende Datenstrategie für die Digitale Schweiz aus?
PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Big Data ist eine ethische Entscheidung!

Der Einsatz von Big Data ist immer eine Frage nach dem großen Ganzen und erfordert im Gesundheitswesen den Blick über den Tellerrand hinaus. Denn bei allen Vorteilen, die Big Data mit sich bringt, erfordert das Thema auch ein proaktives Nachdenken über den Umgang mit den Daten, findet Prof. Reinhard Riedl, wissenschaftlicher Leiter des Fachbereichs Wirtschaft an der Berner Fachhochschule. So wird Big Data vor allem zu einer ethischen Herausforderung. Riedl stößt damit eine Diskussion an, die derzeit noch zu wenig Beachtung findet.

Bislang ist Datensicherheit das Thema Nr. 1
„In allen Gesprächen, die zu Big Data stattfinden, wird bei der Diskussion der Gefahren von Big Data der Fokus sehr stark auf den Bereich Datenschutz gelegt. Obwohl dies ein sehr wichtiger Aspekt ist, gibt es auch andere Fragen, die gestellt werden müssen“, führt Reinhard Riedl in das Thema ein. Denn einerseits ist die Nutzung von Big Data für Forschung und Praxis in der Medizin unverzichtbar, weil der Nutzen sehr hoch ist. Anderseits kann aber eine unprofessionelle Nutzung von Big Data schnell zu einem Albtraum werden. Nicht nur hinsichtlich einer möglichen Verletzung der Privatsphäre, sondern auch aufgrund der Situationen und Fragestellungen, mit denen Menschen plötzlich konfrontiert sein können.

„Ein System möglichst sicher zu gestalten ist heutzutage keine Herausforderung mehr, sondern eher eine Kostenfrage. Dies ist auch der Grund, warum das Thema der Datenhaltung und Datensicherheit an vielen Stellen so wenig beachtet wird. Oft fehlen einfach die nötigen finanziellen Mittel“, gibt Riedl zu. „Doch die weit wichtigere Frage ist eher philosophisch: Wie gehen wir mit den gewonnenen Daten und den damit verbundenen möglich gewordenen Vorhersagen richtig um?“

Dieser Aspekt findet in der Öffentlichkeit bislang kaum Beachtung. Denn mit der Nutzung von Big Data und den daraus entstehenden Möglichkeiten für Vorhersagen entstehen Fragestellungen psychischer und emotionaler Art, die den Arzt stärker in die Rolle des Psychologen versetzen. „Der behandelnde Arzt nimmt zunehmend die Rolle eines Beraters ein, der den Patienten bei seinen Entscheidungen emotional begleitet und psychisch stützt“, verdeutlicht Riedl das sensible Thema.

Der Patient wird selbstständiger
Dass der Patient generell mehr Entscheidungskraft übertragen bekommt, ist nur ein Teil der Geschichte. Dass er dabei nicht allein gelassen werden darf, eine ganz andere Seite der Medaille. „Die Erklärung der Datenlage gegenüber dem Patienten wird am Ende immer eine Einzelfallentscheidung des Arztes bleiben. Derzeit trifft der Arzt eine bewusste Entscheidung darüber, was er dem Patienten weitergibt oder nicht. Manchmal kann es schädlicher sein, den Patienten emotional mit Wissen zu belasten, als ihm dieses Wissen vorzuenthalten“, macht Riedl deutlich.

Doch was, wenn vor dem Hintergrund von Big Data Voraussagen für die kommenden 20 Jahre möglich werden? „Plötzlich ergibt sich eine viel bessere Informationslage“, so Riedl. „Wir sammeln eine Menge stochastisches Wissen und in vielen Lebensbereichen werden wir eine Regulierung brauchen, wie wir mit diesem Wissen umgehen wollen. Ein klassisches Beispiel ist der Versicherungsmarkt, wo ja heute schon teilweise personenbezogene Daten genutzt werden, um individuelle Risiken und Tarife für die Kunden zu berechnen“, verdeutlicht Riedl. „Auch Prämienverbilligungen werden oft für jene gewährt, die sich von Versicherungen überwachen lassen.“

Im Umkehrschluss bedeutet dies: Jeder ist für sein Schicksal selbst verantwortlich. „Wenn Menschen nur noch zu günstigen Konditionen versichert werden, wenn sie entsprechend gesund und risikoarm leben, was immer auch die Definition jeweils dafür sein mag, oder wenn sie abgestraft werden, wenn sie ungesund und riskant leben, „dann muss man regulieren, wie weit diese Diskriminierung gehen darf“, bringt Riedl es auf den Punkt und ergänzt: „Kein Mensch hat zu jedem einzelnen Zeitpunkt seines Lebens und in Bezug auf jeden Kontext eine positive Datenlage.“

Datendiskriminierung und Datenemanzipation
Datendiskriminierung ist ein neuer Terminus, auf den wir in Zukunft häufiger treffen werden. Doch noch beschäftigen sich zu wenige Arbeitsgruppen mit dieser Thematik. „Am Ende wird es eine politische Entscheidung darüber geben müssen, welches Wissen man berücksichtigt und welches nicht“, betont der Experte.

Er sieht aber auch Chancen für einen selbstbestimmten Umgang mit Daten. „In der Europäischen Datenschutzgrundverordnung gibt es den Artikel 20, der das Recht auf die Kopie und Weitergabe der einen selber betreffenden Daten in maschinenlesebarer Form regelt. „Damit kann ich meine Daten einer Plattform zur Verfügung stellen, die eine Nutzung für die medizinische Forschung unter kontrollierten Bedingungen ermöglicht“, führt Riedl aus. „Das Problem ist nur, dass wir Governance Regeln entwickeln müssen, die auch zukünftige Risiken und Konsequenzen mit berücksichtigen. Die Vorstellungen der digitalen Transformation sind bislang sehr konventionell. Was die Sache aber so schwierig macht, ist, dass Big Data Methoden, beispielsweise Maschinenlernen, so unglaublich wirkungsvoll sein können.“

„Es ist keine Option Big Data nicht zu nutzen, denn dies wäre unethisch.“ konstatiert Riedl. Dafür birgt die Datenauswertung zu große Vorteile für Medizin und Menschen. „Es ist aber auch unethisch, Big Data zu nutzen, ohne über die Folgen nachzudenken.“ Und: „Für uns als Lieferanten der Daten stellt sich die soziale Frage: Wie weit sind wir auf unsere Sicherheit bedacht, dass wir uns verweigern unsere Daten nutzbar zu machen? Natürlich können wir einseitig von den Daten anderer profitieren ohne sie von unseren Daten profitieren zu lassen, aber wenn zu viele so handeln profitiert niemand. Big Data stellt uns allen nichttriviale ethische Fragen. Auf die Herangehensweise kommt es an!“


Reinhard Riedl promovierter in Reiner Mathematik und hat in verschiedenen Disziplinen zu Fragen rund um das Design und die praktische Nutzung von Informatiklösungen geforscht. Heute leitet er das transdisziplinäre BFH-Forschungszentrum „Digital Society“, an dem Forscher aus über zehn Disziplinen und insgesamt sechs Fakultäten der Berner Fachhochschule zusammenarbeiten. 1995 – 2006 gab er Zürichs Zynischen Theaterindex heraus. Seit 2015 ist Präsident der Internationalen Gesellschaft für Neue Musik Bern.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Sind Big Data, Innovation und Datenschutz vereinbar?

Bedeutet erfolgreicher Datenschutz das Ende von Big Data oder wird Europa durch die ab Mai 2018 geltende Datenschutz-Grundverordnung gar weniger innovativ? Dieser Beitrag beleuchtet die Auswirkungen dieser neuen Vorschriften und zeigt auf, wie Datenschutz Innovation beeinflusst.

Die wichtigste Ressource der Welt ist nicht mehr Rohöl, sondern Daten – so der Titel des Economists vom 6. Mai 2017. Auch wenn für Big Data keine allgemeingültige Definition vorliegt, ist es das Thema, was die Wirtschaft und die Politik in den letzten Jahren beschäftigt. Die Auswertung und Analyse von Daten verspricht ein besseres Verständnis der Nutzer und somit das Potential Innovationen abzuleiten und sich Vorsprünge zu sichern.

Doch nun tritt im Mai 2018 die europaweit geltende Datenschutz-Grundverordnung (DS GVO 2016/679) in Kraft. Darin enthalten sind strenge Vorschriften zum Umgang mit personenbezogenen Daten von EU-Bürgern. Damit richtet sich die DS-GVO nicht nur an Unternehmen aus der EU, sondern auch an Unternehmen, die ihre Dienste an EU-Bürger vermarkten. Verstöße gegen das neue Regelwerk können mit einer Strafe von 4% des Umsatzes oder maximal 20 Millionen Euro belegt werden.

Ist Big Data damit in Europa Geschichte? Schießen wir uns in puncto Innovationskraft damit selbst ins Aus oder können Datenschutz und die Einführung neuer, wettbewerbsfähiger Produkte und Dienstleistungen vereint werden? Können wir bei den Trendthemen Digitale Plattformen und Big Data weiterhin mitziehen oder wird Innovation durch die DS-GVO massiv behindert?

Um diese Fragen zu beantworten, hat das österreichische Bundesministerium für Verkehr, Innovation und Technologie (bmvit) ein Forschungsteam beauftragt. Die crowdbasierte Wiener Innovationsagentur cbased hat gemeinsam mit SBA Research und der Wirtschaftsuniversität Wien untersucht wie sich die neuen Vorschriften auswirken. Der erste Entwurf der Studie wurde öffentlich auf der crowdbasierten Plattform Discuto.io diskutiert und kann dort vollständig eingesehen werden.

Behindert strenger Datenschutz Innovation?
Im Rahmen der DS-GVO kommen neue Vorschriften in Bezug auf den Umgang mit personenbezogenen Daten auf Unternehmen zu. Der Verarbeitung von Daten muss explizit zugestimmt werden, wobei bereits das Speichern oder Anonymisieren der Daten als Verarbeitung angesehen wird. Der Verwendungszweck der Datenverarbeitung muss klar hervorgehoben werden und die Daten dürfen nicht über diesen Zweck hinaus analysiert werden.

Weiterhin bringt die DS-GVO das Recht auf Vergessenwerden und damit die Löschung der Daten mit sich. Klingt simpel, ist aber ein rechtlich unscharf definiertes Feld. Denn der Terminus “Löschen” wird in Datenanwendungen unterschiedlich verwendet. Oft verbirgt sich dahinter keine endgültige Vernichtung, wie es die DS-GVO vorsieht, sondern lediglich eine Entfernung aus der Informationsverarbeitung.

Daten dürfen zwar analysiert werden – was für Big Data wichtig ist, aber nur wenn sie anonym weiterverarbeitet werden. Für die Anonymisierung der Daten bedarf es der expliziten Einwilligung. Zudem hat die Verarbeitung der Daten transparent zu erfolgen, d.h. der Besitzer der Daten besitzt weitreichende Kontrolle über die Verwendung seiner Informationen. Diese Vorschriften zur Transparenz können sich teils mit dem Recht auf Vergessenwerden widersprechen. Hinzu kommt, dass auch die technische Umsetzung vieler Vorgaben noch Forschung benötigt, um definitive Aussagen zu den Wirkungen zuzulassen.

Mit der DS-GVO treten also strenge Datenschutzregeln in Kraft. Schon in der Entstehungsphase des Gesetzestextes wurde kritisiert, dass die neuen Regeln Innovation behindern. Aus der Innovationsforschung ist wiederum bekannt, dass Regulierungen durchaus auch zu Innovation beitragen können. Ein Beispiel ist die Umweltgesetzgebung. Trotz strenger Auflagen wurde das Wirtschaftswachstum nicht beeinflusst, aber die Nachfrage nach innovativen Umwelttechnologien erhöht.

Fünf Wirkungsketten von Innovation
Im Rahmen der Studie wurden die rechtlichen Bestimmungen auf ihre technischen Implikationen untersucht und analysiert, wie sich diese wiederum auf Innovation auswirken können.

Die Kernfrage der Studie lautete, ob strenger Datenschutz Unternehmen bei Innovationen behindert oder ob er dazu beiträgt, dass sie neue Angebote, Business Modelle und Technologien entwickeln, die sowohl die regulatorischen Vorgaben als auch die Wünsche der Abnehmer erfüllen.

In dem Zusammenhang wurden 5 Wirkungsketten identifiziert, über die Datenschutz Innovationsaktivitäten beeinflussen kann.

1. Produkt- und Dienstleistungsprozesse
Innovationsprozesse sind tendenziell datengetriebener als in der Vergangenheit. Ansätze wie Lean Startup propagieren die Bildung von Hypothesen und deren datenbasierte Validierung durch potentielle Kunden über den ganzen Innovationsprozess hinweg. Grundsätzlich könnte hier die DS-GVO Einschränkungen bringen, weil ein Teil der Datensubjekte keine Zustimmung zur Verwendung der Daten gibt bzw. weil für die Nutzung historischer Daten eine neuerliche Einwilligung notwendig ist. Allerdings gibt es für Unternehmen eine Reihe von Optionen, um mit den strengeren Vorgaben der DS-GVO umzugehen. Beispielsweise können Tests mit einer Gruppe von Testusern in den Entwicklungsprozess eingebunden werden. Es ist daher schwer zu argumentieren, dass Datenschutz die Entwicklung von Produkt- und Prozessinnovationen grundsätzlich behindert.

2. Werbe- und datenfinanzierte Businessmodelle
Businessmodelle, die auf Werbeeinnahmen oder verkauften Daten basieren, sind hauptsächlich von der DS-GSVO betroffen. Nutzer müssen der Datenverarbeitung und -weitergabe explizit zustimmen. Untersuchungen haben ergeben, dass schon die derzeit gültige Version der DS-GVO die Effizienz von Werbeschaltungen herabsetzt. Diese Tendenz wird durch die zukünftige DS-GVO weiter verstärkt. Abzuwarten bleibt, ob es den NutzerInnen in Zukunft leichter möglich ist, die Weitergabe ihrer Daten zu verfolgen bzw. ob es klarer sein wird, dass sie mit ihren Daten für kostenlose Produkte zahlen. In jedem Fall, kann davon ausgegangen werden, dass die DS-GVO Business Modelle mit werbe- und datenfinanzierte Innovationsaktivitäten weniger attraktiv macht.

3. Datenschutz als Teil der Marketingstrategie
Die Weitergabe von Daten bzw. die Schaltung von gezielter Werbung entsprechen schon heute nicht den Wünschen der Nutzer. Die überwiegende Mehrheit ist klar für strengen Datenschutz und Kontrollmöglichkeiten was die Weiterverbreitung von persönlichen Daten betrifft. In Kombination mit der DS-GVO können Unternehmen Datenschutz als integrierten Teil ihres Produktangebots platzieren und es als Teil ihrer Marketingstrategie kommunizieren. Insbesondere europäische Unternehmen können dies als Differenzierungsmerkmal im Vergleich zur “datenhungrigen” Konkurrenz wahrnehmen.

4. Gesetzliche Vorgaben ermöglichen die Entwicklung von Datenschutztechnologien
Die DS-GVO schafft grundsätzlich einen „Markt“ für Datenschutztechnologien. Die gesetzlichen Rahmenbedingungen sind gerade für die Entwicklung von Datenschutztechnologien wesentlich, weil Nachfrage für bestimmte Produkte und Dienstleistungen geschaffen wird. Allerdings müssen die gesetzlichen Bestimmungen hinreichend klar sein, um hier sowohl Nachfrage als auch Angebot zu stimulieren. Wenn Ziele zu viel Interpretationsspielraum lassen, steigt die Unsicherheit und nicht die Zahl der Lösungen zur Erreichung der Ziele. Konkret gibt es großen Interpretationsspielraum bei den Forderungeno zum „Löschen von Daten“ oder „Transparenz“ oder „Datensparsamkeit“. Hier kommt es höchstwahrscheinlich erst über die Gerichte zu einer Klärung der Begriffe.

5. Weniger Spielraum für Prozessinnovationen
Prozessinnovationen werden nach Goldfarb und Tucker (2012) durch mehr Datenschutz behindert und unternehmensinterne Abläufe weniger effizient. Denn persönliche Daten werden auch eingesetzt, um interne Abläufe neu zu gestalten und zu optimieren. Da hierbei oft Lösungen von Drittanbietern einbezogen werden, kann es hier ebenfalls zu Restriktionen bei der Datenweitergabe kommen.

Ergebnisse und Empfehlungen
Im Rahmen der Studie konnte kein Nachweis gefunden werden, dass sich strenge Datenschutzbestimmungen positiv auf Innovation auswirken. Dennoch sehen viele Beobachter eine Positionierung Europas als sicherer Hafen für persönliche Daten als Entwicklungschance für die europäische Wirtschaft. Ein Teilnehmer der Diskussion verwies darauf, dass durch strengere Regeln auch neue Chancen für Arbeitsplätze und Businessmodelle (bspw. Datenschutzbeauftragte, datenschutzkonforme Technologie) geschaffen werden.

Gleichzeitig konnte kein direkter negativer Zusammenhang zwischen Datenschutz, Innovation und Big Data festgestellt werden. Wichtig ist jedoch, dass Unternehmen alle begleitenden Maßnahmen setzen, sowohl auf technischer Seite (z.B. im Hinblick auf die Anonymisierung und Löschung der Daten) als auch auf der Aufklärungsseite, sodass alle Nutzer über die Datenverarbeitung informiert sind und entsprechend zustimmen können.

Welche Effekte die DS-GVO wirklich auf die Innovationskraft Europas hat, wird man natürlich erst nachweislich beobachten können, wenn diese ab Mai 2018 in Kraft getreten ist.

Die gesamte Studie kann auf Discuto.io eingesehen werden:
https://www.discuto.io/de/consultation/29627

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Patienten können ihre Daten smart nutzen

Das Gesundheitswesen der Zukunft wird digitaler und technischer. Für die Patientinnen und Patienten eröffnen sich dank einfachem Datentransfer auch neue Möglichkeiten. Über dieses Themengebiet hat unsere Autorin mit Prof. Dr. Elske Ammenwerth von der Universität für Gesundheitswissenschaften, Medizinische Informatik und Technik in Hall (Tirol) unterhalten.

Sie haben diesen Herbst die Konferenz mit dem Motto „Wie viel Technik braucht die Pflege“ organisiert. Daher lautet meine erste Frage an Sie: wie viel Technik braucht das Gesundheitswesen und ganz speziell die Beziehung zwischen einer Gesundheitsfachperson und einem/einer Patient/in?

Die Digitalisierung des Gesundheitswesens ist nicht mehr aufzuhalten – und das ist gut so! Intelligente IT-Lösungen können helfen, die Qualität und Effizienz im Gesundheitswesen zu verbessern. Das Gesundheitswesen hinkt im Vergleich zu vielen anderen Branchen hier hinterher, was die IT-Durchdringung angeht. Das muss sich ändern, und das wird sich ändern. In Österreich, der Schweiz und in Deutschland sind wir dabei auf einem guten Weg – aber viel bleibt noch zu tun.

Prof. Dr. Elske Ammenwerth

Durch die Digitalisierung wird sich dabei auch die Beziehung zwischen der Gesundheitsfachperson und dem Patienten ändern. Ein Beispiel: Liegen patientenbezogene Informationen z.B. in Form einer elektronischen Patientenakte digital vor, kann der Patient viel einfacher darauf zugreifen, Informationen überprüfen, bei Unklarheiten nachfragen, oder auch Informationen ergänzen. Das ist viel einfacher als früher im Papierzeitalter! So werden ja in vielen Ländern jetzt auch Patientenportale entwickelt, die dem Patienten ermöglichen, eigenständig auf Inhalte seiner elektronischen Patientenakte zuzugreifen. Dies wird die Rolle des Patienten stärken – das oft verwendete Stichwort hier ist „Patient Empowerment“.

Sie sagen das Konferenzmotto sei provokant. Was ist daran provokant?

Na ja, es ist provokant, weil da die Frage mitschwingt, ob es ein „zu viel“ an Technik, an Digitalisierung gibt. Denn auch wenn ich ein klarer Befürworter der Digitalisierung der Prozesse im Gesundheitswesen bin: Dies darf nie dazu führen, dass wir uns von der Technik abhängig machen und die Intuition und die persönliche Beziehung zwischen Menschen ersetzen. Ich fände es furchtbar, wenn ich als Patient in einem Krankenhaus nur noch Pflegepersonen und Ärzte treffe, die in ein Tablet schauen, statt mit mir zu reden. Oder wenn klinische Entscheidungen nur noch auf Grundlagen von Algorithmen oder aufgrund von statistischen Modellen getroffen werden. Hier müssen wir als Medizinische Informatikerinnen und Informatiker immer aufmerksam sein – ein gutes Gesundheitswesen muss beides sein: modern und menschlich. Die Technik ist ohne den Menschen nicht viel wert.

Ein viel diskutiertes Thema der ENI 2017 war die sekundäre Datennutzung von Patientendaten, oder auch als Big Data gehandelt. Ass.-Prof. Dr. Werner Hackl, UMIT Hall, verwendete für die klinische Realität von Big Data das Zitat von Dan Ariely, Prof. für Psychologie und Verhaltensökonomik an der Duke University, USA: „Mit Big Data ist es wie mit Sex im Teenager-Alter: Jeder spricht darüber. Keiner weiss wirklich, wie es geht. Alle denken, dass die anderen es tun, also behauptet jeder, dass er es auch tut.“ Was läuft falsch und was sollte bei der Nutzung sekundärer Daten im klinischen Alltag geändert werden?

Wie so oft ist auch bei „Big Data“ zu beobachten, dass durch geschicktes Marketing und einen prägnanten Slogan ein Hype erzeugt wird, welcher aus meiner Sicht zu hohe Erwartungen schürt. Wie Werner Hackl gesagt hat: Jeder meint, er muss dabei sein. Das gilt für die Industrie, die Gesundheitseinrichtungen, aber auch die Forschung.

Die sekundäre Datennutzung kann nur funktionieren, wenn viele Voraussetzungen erfüllt sind, die wie Bausteine ineinandergreifen. So müssen wir zunächst qualitativ hochwertige und möglichst standardisierte Primärdaten zur Verfügung haben. Dies ist doch oft gar nicht gegeben! Große Teile der Dokumentation erfolgen immer noch auf Papier und sind daher gar nicht auswertbar. Und die elektronische Dokumentation ist oft lückenhaft, wenig aussagekräftig da zu stark standardisiert (oder zu wenig standardisiert) und daher von geringer Qualität.

Für die sekundäre Datennutzung brauchen wir also ein klares Bild der Qualität und Quantität der vorhandenen Daten in unseren Informationssystemen – und das ist schon schwierig. Welches Krankenhaus kann ad hoc sagen, welche Daten und Datentypen es in seinen oft über 100 Anwendungen einsetzt? Wenn man also Primärdaten als Datenschatz versteht, muss man wohl – um im Bild zu bleiben – sich vorstellen, dass dieser Schatz noch in der Erde steckt – und zwar nicht in einer Kiste, sondern als einzelne Edelsteinbrocken in der Erde verteilt. Das macht deutlich, wie schwierig das „Heben“ dieses Schatzes ist.

Ein anderer Aspekt ist, dass Einrichtungen oft ja gar nicht wissen, was sie eigentlich mit ihren Primärdaten machen wollen. Wenn man z.B. eine Pflegedirektorin fragt, was sie denn jetzt genau wissen möchte, kommt ein Achselzucken. Sekundäre Datennutzung funktioniert aber nur, wenn ich eine einigermaßen klare Vorstellung davon besitze, was ich denn überhaupt an Fragestellungen habe – Fragen aus der Sicht des Managements, der Qualitätssicherung, der Patientensicherheit, der Forschung? Das sollte ich mir vorher überlegen, bevor ich zu „graben“ anfange – sonst weiss ich ja nicht, wonach ich buddeln soll.

Was sind Schlüsselmerkmale einer erfolgreichen sekundären Datennutzung? Wer profitiert davon?

Werner Hackl hat gerade in seinem lesenswerten Artikel „PRECISE DATA STATT BIG DATA“ für die eHealth.com diese Schlüsselmerkmale für erfolgreiche sekundäre Datennutzung skizziert: Hierzu gehört, zunächst einmal eine klare Fragestellung zu definieren, die ich beantwortet haben möchte. Dann wähle ich die Datenquellen aus meinen Informationssystemen aus, die meine Fragen am besten beantworten. Aus dieser Datenquelle extrahiere ich dann einen zunächst möglichst minimalen Kerndatensatz, der meine Frage beantworten kann. Wenn später neue Fragestellungen hinzukommen, kann ich diesen Kerndatensatz entsprechend erweitern.

Entscheidend ist bei der Datenextraktion die Berücksichtigung des Kontexts der Daten – wo kommen meine Primärdaten her? In welchem Kontext (Anamnese? Befundung? Abrechnung? Qualitätssicherung?) wurden die Primärdaten dokumentiert? Was bedeutet dies für die Aussagekraft der Primärdaten für meine Fragestellung? Abrechnungsdaten spiegeln zum Beispiel nicht immer die klinische Realität wieder! Die Qualität der Analyseergebnisse hängt also direkt von der Qualität der Primärdaten ab. Also: Erfolgreiche sekundäre Datennutzung erfolgt gut geplant – und berücksichtigt die Kontextabhängigkeit der Primärdaten.

Können Sie uns ein konkretes Beispiel geben, das aufzeigt, wie sekundäre Daten optimal in der medizinischen und pflegerischen Patientenversorgung genutzt werden können?

In unserem Forschungsprojekt PATIS – A Patient Safety Intelligence System and Framework, welches vom österreichischen Wissenschaftsfonds FWF gefördert wird, beschäftigen wird uns mit der Frage, wie wir Daten aus der klinischen Routinedokumentation für Aussagen zur Patientensicherheit verwenden können.

Hierfür entwickeln wir derzeit Indikatoren, mit denen wir Patientensicherheit messbar machen können. Dies ist also unsere Fragestellung. Wir versuchen dann, in der umfangreichen ärztlichen bzw. pflegerischen Routinedokumentation die Daten zu finden, die uns helfen, uns Indikatoren messbar zu machen – also eine typische sekundäre Datennutzung. Wir kooperieren hier mit den Tirol Kliniken sowie mit Firmenpartnern. Aus dem Projekt heraus soll ein Patient Safety Minimum Dataset entstehen, welches dann auch von anderen Kliniken übernommen werden kann.

Nun andersherum gefragt: Wie realistisch ist aus Ihrer Sicht die optimale sekundäre Datennutzung oder unterliegen wir hier einer gigantischen Illusion? Denn, inwiefern können Daten überhaupt die menschliche Realität abbilden?

Wie schon andiskutiert sind Daten immer kontextabhängig – erst wenn ich weiss, in welchem Kontext Daten entstanden sind, entsteht Information, mit dem ich dann weiter arbeiten kann. So sind z.B. medizinische Diagnosen unterschiedlich zu interpretieren, je nachdem ob sie als Teil der Abrechnung dokumentiert (und für die Abrechnung optimiert) wurden) oder ob sie als Basis für eine Therapieplanung dokumentiert wurden. Wenn uns diese Kontextabhängigkeit klar ist, wir also Daten nicht blind vertrauen, und wenn wir die sekundäre Datennutzung gezielt planen, also an Fragestellungen ausrichten, dann werden hier einen enormen Nutzen erhalten. Von einem blinden „Schürfen“ nach neuen Erkenntnissen in einem riesigen Datenberg halte ich, wie hoffentlich deutlich wurde, recht wenig.

Wo und wie könnte die sekundäre Datennutzung eine Gefahr für die Patientenversorgung darstellen?

Eine Gefahr sehe ich dann, wenn ich Primärdaten ohne Betrachtung von Kontext und Aussagekraft so lange statistisch auswerte, bis ich irgendeinen Zusammenhang erkenne, und diesen dann unvalidiert in die klinische Entscheidungsfindung einfließen lasse.

Was sind Pflichten und Aufgaben von Gesellschaft, Politik, Bildung, Informatik, Managern im Gesundheitswesen, Gesundheitsfachpersonen und Patient/innen damit eine mit Mehrwehrt einhergehende sekundäre Datennutzung im Alltag gelingt?

Wir alle dürfen Daten und darauf aufsetzenden Auswertungen und Erkenntnissen nicht nur deswegen glauben, weil „Big Data“ gerade hip ist. Wir müssen vielmehr immer hinterfragen: Woher kamen die Daten? In welchem Kontext wurden sie generiert? Wie glaubwürdig sind sie? Und was war die Fragestellung der Auswertung? Außerdem müssen wir uns als Gesellschaft bemühen, dass die Anwender, also die Gesundheitsfachpersonen, ausreichend digitale Kompetenz haben, um Big Data-Anwendungen im Speziellen und Gesundheits-IT-Anwendungen im Allgemeinen kritisch mit zu begleiten und anzuwenden. Leider ist IT-Kompetenz oft kein Kern in der Ausbildung von Gesundheitsfachberufen. Ich halte es daher für eine wichtige Aufgabe, entsprechende berufsbegleitende Weiterbildungsangebot zu entwickeln.

Ich darf in diesem Zusammenhang erwähnen, dass wir uns an der UMIT schon seit ca. 2010 diesem Thema annehmen. Seit dieser Zeit bieten wir regelmäßig Intensivkurse zum Thema Informationsmanagement und eHealth für Pflegeberufe an. Ganz spannend ist jetzt unser neuer berufsbegleitender Universitätslehrgang „Health Information Management“, welcher sich gezielt an Gesundheitsfachberufe, aber auch an technische Berufe, wendet. Dieser Universitätslehrgang vermittelt in drei bzw. fünf Semestern fundierte Kompetenzen in Gestaltung, Auswahl, Einführung und Betrieb von IT-Systemen im Gesundheitswesen. Ein Schwerpunkt ist dabei auch die Sekundärnutzung von Routinedaten. Die nächste Gruppe startet im Herbst 2018.

Und für die vorletzte Frage springen wir in das Jahr 2037: Wie verändern bis dahin die Informationstechnologien das Berufsbild der Gesundheitsfachpersonen, und im Besonderen das der Pflegefachpersonen? An welchen Merkmalen sind diese Veränderungen erkennbar? (z.B. Bereiche der zwischenmenschlichen Kommunikation, Beratung und Befähigung der Patient/innen im Kontext des Selbstmanagements)

Eine schwierige Frage – Vorhersagen für die Zukunft liegen ja notorisch daneben! Aber gut, versuchen wir es: Im Jahre 2037 wird das Gesundheitswesen umfassend digitalisiert sein. Elektronische Patientenakten werden innerhalb der Einrichtungen Standard sein, und nationale eHealth-Infrastrukturen sorgen dafür, dass auch bei einem Einrichtungswechsel alle patientenbezogenen Informationen reibungslos übermittelt werden. Mobile Geräte sind allgegenwärtig, unflexible Standcomputer werden kaum noch benötigt.

Die derzeit teilweise überbordende Dokumentation ist zurückgeführt auf das wirklich Wichtige, der Fokus liegt auf der Unterstützung der unmittelbaren Patientenversorgung durch eine adäquate Dokumentation. Weiterführende sekundäre Auswertungen (z.B. für die Abrechnung oder das Qualitätsmanagement) erfolgen gut geplant im Hintergrund. Die Datenqualität wird dabei durch spezialisierte Informationsmanager laufend überprüft. Dies alles entlastet klinisch tätiges Personal von unnötigen Dokumentationsaufwänden und gibt mehr Zeit für die Patientenversorgung.

Der Patient wird eine viel aktivere Rolle als heute einnehmen und über Patientenportale auf die Informationen zugreifen, selber Informationen (z.B. Diabetes-Tagebücher, Sport-Apps etc.) einstellen, sich mit anderen Betroffenen vernetzen und mit Gesundheitsfachpersonen elektronisch kommunizieren können. Videosprechstunden und Heim-Monitoring werden zum Alltag gehören ebenso wie sensorgesteuerte Fernüberwachung von Patienten. Ein Krankenhausaufenthalt kann dadurch oft vermieden werden.

Intelligente Anwendungen helfen bei der klinischen Entscheidungsfindung, dienen aber nur als Unterstützung, nicht als Ersatz für eine gemeinsame Diskussion im multiprofessionellen Behandlungsteam. Digitale Grundkompetenzen werden in allen klinischen Ausbildungs- und Studiengängen integriert sein. Es wird spezialisierte Berufsbilder wie eine „Telemonitoring Nurse“ oder einen „Facharzt für Health Information Management“ geben, und diese werden attraktive Karrieremöglichkeiten bieten.

Gesundheitseinrichtungen werden einen Chief Information Office besitzen, welcher als Teil der Geschäftsführung über strategische Weiterentwicklungen im Bereich der Digitalisierung federführend mitentscheidet. Ob uns das gelingt, hängt von folgenden Fragen ab: Wieviel sind wir bereit, für ein modernes Gesundheitswesen zu investieren? In wieweit verstehen wir, dass klinische tätige Personen auch immer Informationsmanager sind und entsprechend Aus- bzw. Weiterbildungen und Karrierewege benötigen? Und wie schaffen wir es, auch die Bevölkerungsschichten in diese Vision einzubeziehen, die nur geringe oder keine IT-Kompetenz haben (Stichwort: Digital Divide)? Wir haben also noch viel zu tun in den nächsten Jahren.

Und die letzte Frage: Was ist kurz beschrieben Ihr Forschungsgebiet und welche Motivation treibt Sie in Ihrer Forschung an?

Ich beschäftige mich seit 15 Jahren mit dem Management von Informationssystemen im Gesundheitswesen. Ich möchte durch meine Arbeit dazu beitragen, die Qualität der Gesundheitsversorgung zu verbessern. Konkrete Forschungsthemen sind dabei unter anderem der Einsatz von IT-Lösungen zur Verbesserung der Medikationssicherheit, die Evaluierung des Nutzens von IT-Systemen im Gesundheitswesen, die Benutzerfreundlichkeit von IT-Lösungen, die Einbindung von Patienten über Patientenportale oder auch aktuell die Frage nach der Vermittlung notwendiger Kompetenzen an Gesundheitsfachberufe.

 

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

SATW Project «Public Value of Personal Health Data»

Personal health data are urgently needed for medical research and medical care. They provide the foundations for personalized medicine, but in Europe they are hardly accessible for researcher and medical doctors. This project analyzes how this unfortunate situation could be changed.

In a 22-months research project the Swiss Academy of Engineering Science (SATW) will analyze the potential public value of personal health data collections and how it can materialized and leveraged. So far, there are lots of personal health data around in Switzerland, but they are hardly if at all accessible for research and medical care.

In a first step, the project will identify the value provided by personal health data. Based on the public value theory by Mark Moore a stakeholder-value matrix will be developed, which differentiates among different stakeholders and different types of public value. Thereby, expected values will be complemented with perceived risks. In order to obtain reliable results, analyses will first be carried out for scenarios that differ with respect to types of data, roles of users accessing the data, and types of usage. Only then results will be merged into a big picture.

In a second step, the project will identify and analyze different governance options, that is it will study how different forms of governance impact the stakeholder-value matrix and what this means for public and political acceptance of a personal health data platform ruled by a specific governance concept. Thereby governance for the whole public health data ecosystem will be taken into consideration. Among others this will allow us to consider both mandatory and self-determined providing of own health data to a platform.

In a third step, communication concepts will be developed that support an open and constructive political dialogue about which actions should be taken by government. Possible actions include regulatory acts, infrastructure investments, and teaching and training. The goal is to escape the current trap in the political dialogue which stems from the fact that personal health data are usually discussed in toto and lots of different aspects are thereby combined which can be handled separately.

Apart from SATW, Bern University of Applied Sciences, ETH, and Golliez Data Consulting are involved in the project. The project will build on previous experience of the BFH-Center Digital Society with public value studies in the context of digital transformation.

Current status

A workshop has been carried out with more than 30 experts from a diverse that of disciplines involved with the use of personal health data. The results of the workshop are under review by its participants and will be published in the beginning of 2018. They will be further validated in expert interviews in the coming months.

Contact data

Please address any requests to: Reinhard.riedl@bfh.ch

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.