A national data infrastructure (NDI) provides data, data-related services and guidelines for the
re-use of data to individuals and organizations. It facilitates efficient sharing of data, supports
new business models, and is thus a key enabler for the digital economy, open research, societal
collaboration and political processes. While several European countries have taken steps to set
up data infrastructures cutting across institutional silos, approaches vary, and there is no common
understanding of what a NDI exactly comprises. In Switzerland, activities are still at a
conceptual stage. In order to foster a shared vision of what a NDI is about, stakeholder
interviews were carried out with representatives of public administration, research, civil society,
and the private sector. There is broad consensus among key stakeholders that a NDI is to be
conceived as a nationwide distributed technical infrastructure allowing the sharing of data, based
on predefined rules. Our findings also suggest that the notion of a NDI should be approached
from four perspectives: a big data, a base register, an open data, and a mydata perspective. For its
implementation, effective coordination across several dimensions (ethical, legal, political,
economical, organizational, semantical, and technical) is crucial, which calls for a truly
multidisciplinary approach.
https://www.societybyte.swiss/wp-content/uploads/2023/05/logo-societybyte-DE.webp00Beat Estermannhttps://www.societybyte.swiss/wp-content/uploads/2023/05/logo-societybyte-DE.webpBeat Estermann2018-03-01 08:15:132021-04-23 10:04:07Conceptualizing a National Data Infrastructure for Switzerland
Ähnliche Beiträge
Es wurden leider keine ähnlichen Beiträge gefunden.
Der Einsatz von Big Data ist immer eine Frage nach dem großen Ganzen und erfordert im Gesundheitswesen den Blick über den Tellerrand hinaus. Denn bei allen Vorteilen, die Big Data mit sich bringt, erfordert das Thema auch ein proaktives Nachdenken über den Umgang mit den Daten, findet Prof. Reinhard Riedl, wissenschaftlicher Leiter des Fachbereichs Wirtschaft an der Berner Fachhochschule. So wird Big Data vor allem zu einer ethischen Herausforderung. Riedl stößt damit eine Diskussion an, die derzeit noch zu wenig Beachtung findet.
Bislang ist Datensicherheit das Thema Nr. 1
„In allen Gesprächen, die zu Big Data stattfinden, wird bei der Diskussion der Gefahren von Big Data der Fokus sehr stark auf den Bereich Datenschutz gelegt. Obwohl dies ein sehr wichtiger Aspekt ist, gibt es auch andere Fragen, die gestellt werden müssen“, führt Reinhard Riedl in das Thema ein. Denn einerseits ist die Nutzung von Big Data für Forschung und Praxis in der Medizin unverzichtbar, weil der Nutzen sehr hoch ist. Anderseits kann aber eine unprofessionelle Nutzung von Big Data schnell zu einem Albtraum werden. Nicht nur hinsichtlich einer möglichen Verletzung der Privatsphäre, sondern auch aufgrund der Situationen und Fragestellungen, mit denen Menschen plötzlich konfrontiert sein können.
„Ein System möglichst sicher zu gestalten ist heutzutage keine Herausforderung mehr, sondern eher eine Kostenfrage. Dies ist auch der Grund, warum das Thema der Datenhaltung und Datensicherheit an vielen Stellen so wenig beachtet wird. Oft fehlen einfach die nötigen finanziellen Mittel“, gibt Riedl zu. „Doch die weit wichtigere Frage ist eher philosophisch: Wie gehen wir mit den gewonnenen Daten und den damit verbundenen möglich gewordenen Vorhersagen richtig um?“
Dieser Aspekt findet in der Öffentlichkeit bislang kaum Beachtung. Denn mit der Nutzung von Big Data und den daraus entstehenden Möglichkeiten für Vorhersagen entstehen Fragestellungen psychischer und emotionaler Art, die den Arzt stärker in die Rolle des Psychologen versetzen. „Der behandelnde Arzt nimmt zunehmend die Rolle eines Beraters ein, der den Patienten bei seinen Entscheidungen emotional begleitet und psychisch stützt“, verdeutlicht Riedl das sensible Thema.
Der Patient wird selbstständiger
Dass der Patient generell mehr Entscheidungskraft übertragen bekommt, ist nur ein Teil der Geschichte. Dass er dabei nicht allein gelassen werden darf, eine ganz andere Seite der Medaille. „Die Erklärung der Datenlage gegenüber dem Patienten wird am Ende immer eine Einzelfallentscheidung des Arztes bleiben. Derzeit trifft der Arzt eine bewusste Entscheidung darüber, was er dem Patienten weitergibt oder nicht. Manchmal kann es schädlicher sein, den Patienten emotional mit Wissen zu belasten, als ihm dieses Wissen vorzuenthalten“, macht Riedl deutlich.
Doch was, wenn vor dem Hintergrund von Big Data Voraussagen für die kommenden 20 Jahre möglich werden? „Plötzlich ergibt sich eine viel bessere Informationslage“, so Riedl. „Wir sammeln eine Menge stochastisches Wissen und in vielen Lebensbereichen werden wir eine Regulierung brauchen, wie wir mit diesem Wissen umgehen wollen. Ein klassisches Beispiel ist der Versicherungsmarkt, wo ja heute schon teilweise personenbezogene Daten genutzt werden, um individuelle Risiken und Tarife für die Kunden zu berechnen“, verdeutlicht Riedl. „Auch Prämienverbilligungen werden oft für jene gewährt, die sich von Versicherungen überwachen lassen.“
Im Umkehrschluss bedeutet dies: Jeder ist für sein Schicksal selbst verantwortlich. „Wenn Menschen nur noch zu günstigen Konditionen versichert werden, wenn sie entsprechend gesund und risikoarm leben, was immer auch die Definition jeweils dafür sein mag, oder wenn sie abgestraft werden, wenn sie ungesund und riskant leben, „dann muss man regulieren, wie weit diese Diskriminierung gehen darf“, bringt Riedl es auf den Punkt und ergänzt: „Kein Mensch hat zu jedem einzelnen Zeitpunkt seines Lebens und in Bezug auf jeden Kontext eine positive Datenlage.“
Datendiskriminierung und Datenemanzipation
Datendiskriminierung ist ein neuer Terminus, auf den wir in Zukunft häufiger treffen werden. Doch noch beschäftigen sich zu wenige Arbeitsgruppen mit dieser Thematik. „Am Ende wird es eine politische Entscheidung darüber geben müssen, welches Wissen man berücksichtigt und welches nicht“, betont der Experte.
Er sieht aber auch Chancen für einen selbstbestimmten Umgang mit Daten. „In der Europäischen Datenschutzgrundverordnung gibt es den Artikel 20, der das Recht auf die Kopie und Weitergabe der einen selber betreffenden Daten in maschinenlesebarer Form regelt. „Damit kann ich meine Daten einer Plattform zur Verfügung stellen, die eine Nutzung für die medizinische Forschung unter kontrollierten Bedingungen ermöglicht“, führt Riedl aus. „Das Problem ist nur, dass wir Governance Regeln entwickeln müssen, die auch zukünftige Risiken und Konsequenzen mit berücksichtigen. Die Vorstellungen der digitalen Transformation sind bislang sehr konventionell. Was die Sache aber so schwierig macht, ist, dass Big Data Methoden, beispielsweise Maschinenlernen, so unglaublich wirkungsvoll sein können.“
„Es ist keine Option Big Data nicht zu nutzen, denn dies wäre unethisch.“ konstatiert Riedl. Dafür birgt die Datenauswertung zu große Vorteile für Medizin und Menschen. „Es ist aber auch unethisch, Big Data zu nutzen, ohne über die Folgen nachzudenken.“ Und: „Für uns als Lieferanten der Daten stellt sich die soziale Frage: Wie weit sind wir auf unsere Sicherheit bedacht, dass wir uns verweigern unsere Daten nutzbar zu machen? Natürlich können wir einseitig von den Daten anderer profitieren ohne sie von unseren Daten profitieren zu lassen, aber wenn zu viele so handeln profitiert niemand. Big Data stellt uns allen nichttriviale ethische Fragen. Auf die Herangehensweise kommt es an!“
Reinhard Riedl promovierter in Reiner Mathematik und hat in verschiedenen Disziplinen zu Fragen rund um das Design und die praktische Nutzung von Informatiklösungen geforscht. Heute leitet er das transdisziplinäre BFH-Forschungszentrum „Digital Society“, an dem Forscher aus über zehn Disziplinen und insgesamt sechs Fakultäten der Berner Fachhochschule zusammenarbeiten. 1995 – 2006 gab er Zürichs Zynischen Theaterindex heraus. Seit 2015 ist Präsident der Internationalen Gesellschaft für Neue Musik Bern.
https://www.societybyte.swiss/wp-content/uploads/2017/12/iStock-600071938_ret-scaled.jpg12801920Marcel Raschhttps://www.societybyte.swiss/wp-content/uploads/2023/05/logo-societybyte-DE.webpMarcel Rasch2017-12-12 09:00:142018-01-08 15:29:35Big Data ist eine ethische Entscheidung!
Ähnliche Beiträge
Es wurden leider keine ähnlichen Beiträge gefunden.
Bedeutet erfolgreicher Datenschutz das Ende von Big Data oder wird Europa durch die ab Mai 2018 geltende Datenschutz-Grundverordnung gar weniger innovativ? Dieser Beitrag beleuchtet die Auswirkungen dieser neuen Vorschriften und zeigt auf, wie Datenschutz Innovation beeinflusst.
Die wichtigste Ressource der Welt ist nicht mehr Rohöl, sondern Daten – so der Titel des Economists vom 6. Mai 2017. Auch wenn für Big Data keine allgemeingültige Definition vorliegt, ist es das Thema, was die Wirtschaft und die Politik in den letzten Jahren beschäftigt. Die Auswertung und Analyse von Daten verspricht ein besseres Verständnis der Nutzer und somit das Potential Innovationen abzuleiten und sich Vorsprünge zu sichern.
Doch nun tritt im Mai 2018 die europaweit geltende Datenschutz-Grundverordnung (DS GVO 2016/679) in Kraft. Darin enthalten sind strenge Vorschriften zum Umgang mit personenbezogenen Daten von EU-Bürgern. Damit richtet sich die DS-GVO nicht nur an Unternehmen aus der EU, sondern auch an Unternehmen, die ihre Dienste an EU-Bürger vermarkten. Verstöße gegen das neue Regelwerk können mit einer Strafe von 4% des Umsatzes oder maximal 20 Millionen Euro belegt werden.
Ist Big Data damit in Europa Geschichte? Schießen wir uns in puncto Innovationskraft damit selbst ins Aus oder können Datenschutz und die Einführung neuer, wettbewerbsfähiger Produkte und Dienstleistungen vereint werden? Können wir bei den Trendthemen Digitale Plattformen und Big Data weiterhin mitziehen oder wird Innovation durch die DS-GVO massiv behindert?
Um diese Fragen zu beantworten, hat das österreichische Bundesministerium für Verkehr, Innovation und Technologie (bmvit) ein Forschungsteam beauftragt. Die crowdbasierte Wiener Innovationsagentur cbased hat gemeinsam mit SBA Research und der Wirtschaftsuniversität Wien untersucht wie sich die neuen Vorschriften auswirken. Der erste Entwurf der Studie wurde öffentlich auf der crowdbasierten Plattform Discuto.io diskutiert und kann dort vollständig eingesehen werden.
Behindert strenger Datenschutz Innovation?
Im Rahmen der DS-GVO kommen neue Vorschriften in Bezug auf den Umgang mit personenbezogenen Daten auf Unternehmen zu. Der Verarbeitung von Daten muss explizit zugestimmt werden, wobei bereits das Speichern oder Anonymisieren der Daten als Verarbeitung angesehen wird. Der Verwendungszweck der Datenverarbeitung muss klar hervorgehoben werden und die Daten dürfen nicht über diesen Zweck hinaus analysiert werden.
Weiterhin bringt die DS-GVO das Recht auf Vergessenwerden und damit die Löschung der Daten mit sich. Klingt simpel, ist aber ein rechtlich unscharf definiertes Feld. Denn der Terminus “Löschen” wird in Datenanwendungen unterschiedlich verwendet. Oft verbirgt sich dahinter keine endgültige Vernichtung, wie es die DS-GVO vorsieht, sondern lediglich eine Entfernung aus der Informationsverarbeitung.
Daten dürfen zwar analysiert werden – was für Big Data wichtig ist, aber nur wenn sie anonym weiterverarbeitet werden. Für die Anonymisierung der Daten bedarf es der expliziten Einwilligung. Zudem hat die Verarbeitung der Daten transparent zu erfolgen, d.h. der Besitzer der Daten besitzt weitreichende Kontrolle über die Verwendung seiner Informationen. Diese Vorschriften zur Transparenz können sich teils mit dem Recht auf Vergessenwerden widersprechen. Hinzu kommt, dass auch die technische Umsetzung vieler Vorgaben noch Forschung benötigt, um definitive Aussagen zu den Wirkungen zuzulassen.
Mit der DS-GVO treten also strenge Datenschutzregeln in Kraft. Schon in der Entstehungsphase des Gesetzestextes wurde kritisiert, dass die neuen Regeln Innovation behindern. Aus der Innovationsforschung ist wiederum bekannt, dass Regulierungen durchaus auch zu Innovation beitragen können. Ein Beispiel ist die Umweltgesetzgebung. Trotz strenger Auflagen wurde das Wirtschaftswachstum nicht beeinflusst, aber die Nachfrage nach innovativen Umwelttechnologien erhöht.
Fünf Wirkungsketten von Innovation
Im Rahmen der Studie wurden die rechtlichen Bestimmungen auf ihre technischen Implikationen untersucht und analysiert, wie sich diese wiederum auf Innovation auswirken können.
Die Kernfrage der Studie lautete, ob strenger Datenschutz Unternehmen bei Innovationen behindert oder ob er dazu beiträgt, dass sie neue Angebote, Business Modelle und Technologien entwickeln, die sowohl die regulatorischen Vorgaben als auch die Wünsche der Abnehmer erfüllen.
In dem Zusammenhang wurden 5 Wirkungsketten identifiziert, über die Datenschutz Innovationsaktivitäten beeinflussen kann.
1. Produkt- und Dienstleistungsprozesse
Innovationsprozesse sind tendenziell datengetriebener als in der Vergangenheit. Ansätze wie Lean Startup propagieren die Bildung von Hypothesen und deren datenbasierte Validierung durch potentielle Kunden über den ganzen Innovationsprozess hinweg. Grundsätzlich könnte hier die DS-GVO Einschränkungen bringen, weil ein Teil der Datensubjekte keine Zustimmung zur Verwendung der Daten gibt bzw. weil für die Nutzung historischer Daten eine neuerliche Einwilligung notwendig ist. Allerdings gibt es für Unternehmen eine Reihe von Optionen, um mit den strengeren Vorgaben der DS-GVO umzugehen. Beispielsweise können Tests mit einer Gruppe von Testusern in den Entwicklungsprozess eingebunden werden. Es ist daher schwer zu argumentieren, dass Datenschutz die Entwicklung von Produkt- und Prozessinnovationen grundsätzlich behindert.
2. Werbe- und datenfinanzierte Businessmodelle
Businessmodelle, die auf Werbeeinnahmen oder verkauften Daten basieren, sind hauptsächlich von der DS-GSVO betroffen. Nutzer müssen der Datenverarbeitung und -weitergabe explizit zustimmen. Untersuchungen haben ergeben, dass schon die derzeit gültige Version der DS-GVO die Effizienz von Werbeschaltungen herabsetzt. Diese Tendenz wird durch die zukünftige DS-GVO weiter verstärkt. Abzuwarten bleibt, ob es den NutzerInnen in Zukunft leichter möglich ist, die Weitergabe ihrer Daten zu verfolgen bzw. ob es klarer sein wird, dass sie mit ihren Daten für kostenlose Produkte zahlen. In jedem Fall, kann davon ausgegangen werden, dass die DS-GVO Business Modelle mit werbe- und datenfinanzierte Innovationsaktivitäten weniger attraktiv macht.
3. Datenschutz als Teil der Marketingstrategie
Die Weitergabe von Daten bzw. die Schaltung von gezielter Werbung entsprechen schon heute nicht den Wünschen der Nutzer. Die überwiegende Mehrheit ist klar für strengen Datenschutz und Kontrollmöglichkeiten was die Weiterverbreitung von persönlichen Daten betrifft. In Kombination mit der DS-GVO können Unternehmen Datenschutz als integrierten Teil ihres Produktangebots platzieren und es als Teil ihrer Marketingstrategie kommunizieren. Insbesondere europäische Unternehmen können dies als Differenzierungsmerkmal im Vergleich zur “datenhungrigen” Konkurrenz wahrnehmen.
4. Gesetzliche Vorgaben ermöglichen die Entwicklung von Datenschutztechnologien
Die DS-GVO schafft grundsätzlich einen „Markt“ für Datenschutztechnologien. Die gesetzlichen Rahmenbedingungen sind gerade für die Entwicklung von Datenschutztechnologien wesentlich, weil Nachfrage für bestimmte Produkte und Dienstleistungen geschaffen wird. Allerdings müssen die gesetzlichen Bestimmungen hinreichend klar sein, um hier sowohl Nachfrage als auch Angebot zu stimulieren. Wenn Ziele zu viel Interpretationsspielraum lassen, steigt die Unsicherheit und nicht die Zahl der Lösungen zur Erreichung der Ziele. Konkret gibt es großen Interpretationsspielraum bei den Forderungeno zum „Löschen von Daten“ oder „Transparenz“ oder „Datensparsamkeit“. Hier kommt es höchstwahrscheinlich erst über die Gerichte zu einer Klärung der Begriffe.
5. Weniger Spielraum für Prozessinnovationen
Prozessinnovationen werden nach Goldfarb und Tucker (2012) durch mehr Datenschutz behindert und unternehmensinterne Abläufe weniger effizient. Denn persönliche Daten werden auch eingesetzt, um interne Abläufe neu zu gestalten und zu optimieren. Da hierbei oft Lösungen von Drittanbietern einbezogen werden, kann es hier ebenfalls zu Restriktionen bei der Datenweitergabe kommen.
Ergebnisse und Empfehlungen
Im Rahmen der Studie konnte kein Nachweis gefunden werden, dass sich strenge Datenschutzbestimmungen positiv auf Innovation auswirken. Dennoch sehen viele Beobachter eine Positionierung Europas als sicherer Hafen für persönliche Daten als Entwicklungschance für die europäische Wirtschaft. Ein Teilnehmer der Diskussion verwies darauf, dass durch strengere Regeln auch neue Chancen für Arbeitsplätze und Businessmodelle (bspw. Datenschutzbeauftragte, datenschutzkonforme Technologie) geschaffen werden.
Gleichzeitig konnte kein direkter negativer Zusammenhang zwischen Datenschutz, Innovation und Big Data festgestellt werden. Wichtig ist jedoch, dass Unternehmen alle begleitenden Maßnahmen setzen, sowohl auf technischer Seite (z.B. im Hinblick auf die Anonymisierung und Löschung der Daten) als auch auf der Aufklärungsseite, sodass alle Nutzer über die Datenverarbeitung informiert sind und entsprechend zustimmen können.
Welche Effekte die DS-GVO wirklich auf die Innovationskraft Europas hat, wird man natürlich erst nachweislich beobachten können, wenn diese ab Mai 2018 in Kraft getreten ist.
Sie haben diesen Herbst die Konferenz mit dem Motto „Wie viel Technik braucht die Pflege“ organisiert. Daher lautet meine erste Frage an Sie: wie viel Technik braucht das Gesundheitswesen und ganz speziell die Beziehung zwischen einer Gesundheitsfachperson und einem/einer Patient/in?
Die Digitalisierung des Gesundheitswesens ist nicht mehr aufzuhalten – und das ist gut so! Intelligente IT-Lösungen können helfen, die Qualität und Effizienz im Gesundheitswesen zu verbessern. Das Gesundheitswesen hinkt im Vergleich zu vielen anderen Branchen hier hinterher, was die IT-Durchdringung angeht. Das muss sich ändern, und das wird sich ändern. In Österreich, der Schweiz und in Deutschland sind wir dabei auf einem guten Weg – aber viel bleibt noch zu tun.
Prof. Dr. Elske Ammenwerth
Durch die Digitalisierung wird sich dabei auch die Beziehung zwischen der Gesundheitsfachperson und dem Patienten ändern. Ein Beispiel: Liegen patientenbezogene Informationen z.B. in Form einer elektronischen Patientenakte digital vor, kann der Patient viel einfacher darauf zugreifen, Informationen überprüfen, bei Unklarheiten nachfragen, oder auch Informationen ergänzen. Das ist viel einfacher als früher im Papierzeitalter! So werden ja in vielen Ländern jetzt auch Patientenportale entwickelt, die dem Patienten ermöglichen, eigenständig auf Inhalte seiner elektronischen Patientenakte zuzugreifen. Dies wird die Rolle des Patienten stärken – das oft verwendete Stichwort hier ist „Patient Empowerment“.
Sie sagen das Konferenzmotto sei provokant. Was ist daran provokant?
Na ja, es ist provokant, weil da die Frage mitschwingt, ob es ein „zu viel“ an Technik, an Digitalisierung gibt. Denn auch wenn ich ein klarer Befürworter der Digitalisierung der Prozesse im Gesundheitswesen bin: Dies darf nie dazu führen, dass wir uns von der Technik abhängig machen und die Intuition und die persönliche Beziehung zwischen Menschen ersetzen. Ich fände es furchtbar, wenn ich als Patient in einem Krankenhaus nur noch Pflegepersonen und Ärzte treffe, die in ein Tablet schauen, statt mit mir zu reden. Oder wenn klinische Entscheidungen nur noch auf Grundlagen von Algorithmen oder aufgrund von statistischen Modellen getroffen werden. Hier müssen wir als Medizinische Informatikerinnen und Informatiker immer aufmerksam sein – ein gutes Gesundheitswesen muss beides sein: modern und menschlich. Die Technik ist ohne den Menschen nicht viel wert.
Ein viel diskutiertes Thema der ENI 2017 war die sekundäre Datennutzung von Patientendaten, oder auch als Big Data gehandelt. Ass.-Prof. Dr. Werner Hackl, UMIT Hall, verwendete für die klinische Realität von Big Data das Zitat von Dan Ariely, Prof. für Psychologie und Verhaltensökonomik an der Duke University, USA: „Mit Big Data ist es wie mit Sex im Teenager-Alter: Jeder spricht darüber. Keiner weiss wirklich, wie es geht. Alle denken, dass die anderen es tun, also behauptet jeder, dass er es auch tut.“ Was läuft falsch und was sollte bei der Nutzung sekundärer Daten im klinischen Alltag geändert werden?
Wie so oft ist auch bei „Big Data“ zu beobachten, dass durch geschicktes Marketing und einen prägnanten Slogan ein Hype erzeugt wird, welcher aus meiner Sicht zu hohe Erwartungen schürt. Wie Werner Hackl gesagt hat: Jeder meint, er muss dabei sein. Das gilt für die Industrie, die Gesundheitseinrichtungen, aber auch die Forschung.
Die sekundäre Datennutzung kann nur funktionieren, wenn viele Voraussetzungen erfüllt sind, die wie Bausteine ineinandergreifen. So müssen wir zunächst qualitativ hochwertige und möglichst standardisierte Primärdaten zur Verfügung haben. Dies ist doch oft gar nicht gegeben! Große Teile der Dokumentation erfolgen immer noch auf Papier und sind daher gar nicht auswertbar. Und die elektronische Dokumentation ist oft lückenhaft, wenig aussagekräftig da zu stark standardisiert (oder zu wenig standardisiert) und daher von geringer Qualität.
Für die sekundäre Datennutzung brauchen wir also ein klares Bild der Qualität und Quantität der vorhandenen Daten in unseren Informationssystemen – und das ist schon schwierig. Welches Krankenhaus kann ad hoc sagen, welche Daten und Datentypen es in seinen oft über 100 Anwendungen einsetzt? Wenn man also Primärdaten als Datenschatz versteht, muss man wohl – um im Bild zu bleiben – sich vorstellen, dass dieser Schatz noch in der Erde steckt – und zwar nicht in einer Kiste, sondern als einzelne Edelsteinbrocken in der Erde verteilt. Das macht deutlich, wie schwierig das „Heben“ dieses Schatzes ist.
Ein anderer Aspekt ist, dass Einrichtungen oft ja gar nicht wissen, was sie eigentlich mit ihren Primärdaten machen wollen. Wenn man z.B. eine Pflegedirektorin fragt, was sie denn jetzt genau wissen möchte, kommt ein Achselzucken. Sekundäre Datennutzung funktioniert aber nur, wenn ich eine einigermaßen klare Vorstellung davon besitze, was ich denn überhaupt an Fragestellungen habe – Fragen aus der Sicht des Managements, der Qualitätssicherung, der Patientensicherheit, der Forschung? Das sollte ich mir vorher überlegen, bevor ich zu „graben“ anfange – sonst weiss ich ja nicht, wonach ich buddeln soll.
Was sind Schlüsselmerkmale einer erfolgreichen sekundären Datennutzung? Wer profitiert davon?
Werner Hackl hat gerade in seinem lesenswerten Artikel „PRECISE DATA STATT BIG DATA“ für die eHealth.com diese Schlüsselmerkmale für erfolgreiche sekundäre Datennutzung skizziert: Hierzu gehört, zunächst einmal eine klare Fragestellung zu definieren, die ich beantwortet haben möchte. Dann wähle ich die Datenquellen aus meinen Informationssystemen aus, die meine Fragen am besten beantworten. Aus dieser Datenquelle extrahiere ich dann einen zunächst möglichst minimalen Kerndatensatz, der meine Frage beantworten kann. Wenn später neue Fragestellungen hinzukommen, kann ich diesen Kerndatensatz entsprechend erweitern.
Entscheidend ist bei der Datenextraktion die Berücksichtigung des Kontexts der Daten – wo kommen meine Primärdaten her? In welchem Kontext (Anamnese? Befundung? Abrechnung? Qualitätssicherung?) wurden die Primärdaten dokumentiert? Was bedeutet dies für die Aussagekraft der Primärdaten für meine Fragestellung? Abrechnungsdaten spiegeln zum Beispiel nicht immer die klinische Realität wieder! Die Qualität der Analyseergebnisse hängt also direkt von der Qualität der Primärdaten ab. Also: Erfolgreiche sekundäre Datennutzung erfolgt gut geplant – und berücksichtigt die Kontextabhängigkeit der Primärdaten.
Können Sie uns ein konkretes Beispiel geben, das aufzeigt, wie sekundäre Daten optimal in der medizinischen und pflegerischen Patientenversorgung genutzt werden können?
In unserem Forschungsprojekt PATIS – A Patient Safety Intelligence System and Framework, welches vom österreichischen Wissenschaftsfonds FWF gefördert wird, beschäftigen wird uns mit der Frage, wie wir Daten aus der klinischen Routinedokumentation für Aussagen zur Patientensicherheit verwenden können.
Hierfür entwickeln wir derzeit Indikatoren, mit denen wir Patientensicherheit messbar machen können. Dies ist also unsere Fragestellung. Wir versuchen dann, in der umfangreichen ärztlichen bzw. pflegerischen Routinedokumentation die Daten zu finden, die uns helfen, uns Indikatoren messbar zu machen – also eine typische sekundäre Datennutzung. Wir kooperieren hier mit den Tirol Kliniken sowie mit Firmenpartnern. Aus dem Projekt heraus soll ein Patient Safety Minimum Dataset entstehen, welches dann auch von anderen Kliniken übernommen werden kann.
Nun andersherum gefragt: Wie realistisch ist aus Ihrer Sicht die optimale sekundäre Datennutzung oder unterliegen wir hier einer gigantischen Illusion? Denn, inwiefern können Daten überhaupt die menschliche Realität abbilden?
Wie schon andiskutiert sind Daten immer kontextabhängig – erst wenn ich weiss, in welchem Kontext Daten entstanden sind, entsteht Information, mit dem ich dann weiter arbeiten kann. So sind z.B. medizinische Diagnosen unterschiedlich zu interpretieren, je nachdem ob sie als Teil der Abrechnung dokumentiert (und für die Abrechnung optimiert) wurden) oder ob sie als Basis für eine Therapieplanung dokumentiert wurden. Wenn uns diese Kontextabhängigkeit klar ist, wir also Daten nicht blind vertrauen, und wenn wir die sekundäre Datennutzung gezielt planen, also an Fragestellungen ausrichten, dann werden hier einen enormen Nutzen erhalten. Von einem blinden „Schürfen“ nach neuen Erkenntnissen in einem riesigen Datenberg halte ich, wie hoffentlich deutlich wurde, recht wenig.
Wo und wie könnte die sekundäre Datennutzung eine Gefahr für die Patientenversorgung darstellen?
Eine Gefahr sehe ich dann, wenn ich Primärdaten ohne Betrachtung von Kontext und Aussagekraft so lange statistisch auswerte, bis ich irgendeinen Zusammenhang erkenne, und diesen dann unvalidiert in die klinische Entscheidungsfindung einfließen lasse.
Was sind Pflichten und Aufgaben von Gesellschaft, Politik, Bildung, Informatik, Managern im Gesundheitswesen, Gesundheitsfachpersonen und Patient/innen damit eine mit Mehrwehrt einhergehende sekundäre Datennutzung im Alltag gelingt?
Wir alle dürfen Daten und darauf aufsetzenden Auswertungen und Erkenntnissen nicht nur deswegen glauben, weil „Big Data“ gerade hip ist. Wir müssen vielmehr immer hinterfragen: Woher kamen die Daten? In welchem Kontext wurden sie generiert? Wie glaubwürdig sind sie? Und was war die Fragestellung der Auswertung? Außerdem müssen wir uns als Gesellschaft bemühen, dass die Anwender, also die Gesundheitsfachpersonen, ausreichend digitale Kompetenz haben, um Big Data-Anwendungen im Speziellen und Gesundheits-IT-Anwendungen im Allgemeinen kritisch mit zu begleiten und anzuwenden. Leider ist IT-Kompetenz oft kein Kern in der Ausbildung von Gesundheitsfachberufen. Ich halte es daher für eine wichtige Aufgabe, entsprechende berufsbegleitende Weiterbildungsangebot zu entwickeln.
Ich darf in diesem Zusammenhang erwähnen, dass wir uns an der UMIT schon seit ca. 2010 diesem Thema annehmen. Seit dieser Zeit bieten wir regelmäßig Intensivkurse zum Thema Informationsmanagement und eHealth für Pflegeberufe an. Ganz spannend ist jetzt unser neuer berufsbegleitender Universitätslehrgang „Health Information Management“, welcher sich gezielt an Gesundheitsfachberufe, aber auch an technische Berufe, wendet. Dieser Universitätslehrgang vermittelt in drei bzw. fünf Semestern fundierte Kompetenzen in Gestaltung, Auswahl, Einführung und Betrieb von IT-Systemen im Gesundheitswesen. Ein Schwerpunkt ist dabei auch die Sekundärnutzung von Routinedaten. Die nächste Gruppe startet im Herbst 2018.
Und für die vorletzte Frage springen wir in das Jahr 2037: Wie verändern bis dahin die Informationstechnologien das Berufsbild der Gesundheitsfachpersonen, und im Besonderen das der Pflegefachpersonen? An welchen Merkmalen sind diese Veränderungen erkennbar?(z.B. Bereiche der zwischenmenschlichen Kommunikation, Beratung und Befähigung der Patient/innen im Kontext des Selbstmanagements)
Eine schwierige Frage – Vorhersagen für die Zukunft liegen ja notorisch daneben! Aber gut, versuchen wir es: Im Jahre 2037 wird das Gesundheitswesen umfassend digitalisiert sein. Elektronische Patientenakten werden innerhalb der Einrichtungen Standard sein, und nationale eHealth-Infrastrukturen sorgen dafür, dass auch bei einem Einrichtungswechsel alle patientenbezogenen Informationen reibungslos übermittelt werden. Mobile Geräte sind allgegenwärtig, unflexible Standcomputer werden kaum noch benötigt.
Die derzeit teilweise überbordende Dokumentation ist zurückgeführt auf das wirklich Wichtige, der Fokus liegt auf der Unterstützung der unmittelbaren Patientenversorgung durch eine adäquate Dokumentation. Weiterführende sekundäre Auswertungen (z.B. für die Abrechnung oder das Qualitätsmanagement) erfolgen gut geplant im Hintergrund. Die Datenqualität wird dabei durch spezialisierte Informationsmanager laufend überprüft. Dies alles entlastet klinisch tätiges Personal von unnötigen Dokumentationsaufwänden und gibt mehr Zeit für die Patientenversorgung.
Der Patient wird eine viel aktivere Rolle als heute einnehmen und über Patientenportale auf die Informationen zugreifen, selber Informationen (z.B. Diabetes-Tagebücher, Sport-Apps etc.) einstellen, sich mit anderen Betroffenen vernetzen und mit Gesundheitsfachpersonen elektronisch kommunizieren können. Videosprechstunden und Heim-Monitoring werden zum Alltag gehören ebenso wie sensorgesteuerte Fernüberwachung von Patienten. Ein Krankenhausaufenthalt kann dadurch oft vermieden werden.
Intelligente Anwendungen helfen bei der klinischen Entscheidungsfindung, dienen aber nur als Unterstützung, nicht als Ersatz für eine gemeinsame Diskussion im multiprofessionellen Behandlungsteam. Digitale Grundkompetenzen werden in allen klinischen Ausbildungs- und Studiengängen integriert sein. Es wird spezialisierte Berufsbilder wie eine „Telemonitoring Nurse“ oder einen „Facharzt für Health Information Management“ geben, und diese werden attraktive Karrieremöglichkeiten bieten.
Gesundheitseinrichtungen werden einen Chief Information Office besitzen, welcher als Teil der Geschäftsführung über strategische Weiterentwicklungen im Bereich der Digitalisierung federführend mitentscheidet. Ob uns das gelingt, hängt von folgenden Fragen ab: Wieviel sind wir bereit, für ein modernes Gesundheitswesen zu investieren? In wieweit verstehen wir, dass klinische tätige Personen auch immer Informationsmanager sind und entsprechend Aus- bzw. Weiterbildungen und Karrierewege benötigen? Und wie schaffen wir es, auch die Bevölkerungsschichten in diese Vision einzubeziehen, die nur geringe oder keine IT-Kompetenz haben (Stichwort: Digital Divide)? Wir haben also noch viel zu tun in den nächsten Jahren.
Und die letzte Frage: Was ist kurz beschrieben Ihr Forschungsgebiet und welche Motivation treibt Sie in Ihrer Forschung an?
Ich beschäftige mich seit 15 Jahren mit dem Management von Informationssystemen im Gesundheitswesen. Ich möchte durch meine Arbeit dazu beitragen, die Qualität der Gesundheitsversorgung zu verbessern. Konkrete Forschungsthemen sind dabei unter anderem der Einsatz von IT-Lösungen zur Verbesserung der Medikationssicherheit, die Evaluierung des Nutzens von IT-Systemen im Gesundheitswesen, die Benutzerfreundlichkeit von IT-Lösungen, die Einbindung von Patienten über Patientenportale oder auch aktuell die Frage nach der Vermittlung notwendiger Kompetenzen an Gesundheitsfachberufe.
https://www.societybyte.swiss/wp-content/uploads/2017/11/EHealth-Symbolbild-scaled.jpg12801920Friederike J. S. Thilohttps://www.societybyte.swiss/wp-content/uploads/2023/05/logo-societybyte-DE.webpFriederike J. S. Thilo2017-11-29 16:12:252017-12-01 10:49:13Patienten können ihre Daten smart nutzen
Ähnliche Beiträge
Es wurden leider keine ähnlichen Beiträge gefunden.
Personal health data are urgently needed for medical research and medical care. They provide the foundations for personalized medicine, but in Europe they are hardly accessible for researcher and medical doctors. This project analyzes how this unfortunate situation could be changed.
In a 22-months research project the Swiss Academy of Engineering Science (SATW) will analyze the potential public value of personal health data collections and how it can materialized and leveraged. So far, there are lots of personal health data around in Switzerland, but they are hardly if at all accessible for research and medical care.
In a first step, the project will identify the value provided by personal health data. Based on the public value theory by Mark Moore a stakeholder-value matrix will be developed, which differentiates among different stakeholders and different types of public value. Thereby, expected values will be complemented with perceived risks. In order to obtain reliable results, analyses will first be carried out for scenarios that differ with respect to types of data, roles of users accessing the data, and types of usage. Only then results will be merged into a big picture.
In a second step, the project will identify and analyze different governance options, that is it will study how different forms of governance impact the stakeholder-value matrix and what this means for public and political acceptance of a personal health data platform ruled by a specific governance concept. Thereby governance for the whole public health data ecosystem will be taken into consideration. Among others this will allow us to consider both mandatory and self-determined providing of own health data to a platform.
In a third step, communication concepts will be developed that support an open and constructive political dialogue about which actions should be taken by government. Possible actions include regulatory acts, infrastructure investments, and teaching and training. The goal is to escape the current trap in the political dialogue which stems from the fact that personal health data are usually discussed in toto and lots of different aspects are thereby combined which can be handled separately.
A workshop has been carried out with more than 30 experts from a diverse that of disciplines involved with the use of personal health data. The results of the workshop are under review by its participants and will be published in the beginning of 2018. They will be further validated in expert interviews in the coming months.
Contact data
Please address any requests to: Reinhard.riedl@bfh.ch
https://www.societybyte.swiss/wp-content/uploads/2017/11/Public-Value-Riedl_gelb_CMYK.jpg698884Reinhard Riedlhttps://www.societybyte.swiss/wp-content/uploads/2023/05/logo-societybyte-DE.webpReinhard Riedl2017-11-09 17:23:182017-11-09 17:24:35SATW Project «Public Value of Personal Health Data»
Ähnliche Beiträge
Es wurden leider keine ähnlichen Beiträge gefunden.
Wer im falschen Quartier lebt und eine bestimmt Automarke fährt, den stufen Algorithmen als Terroristen ein – das ist keine Fiktion sondern längst Realität. Daten bringen uns einen persönlich zugeschnittenen Service, können in der Medizin Leben retten, können aber auch ohne unser Wissen gegen uns verwendet werden. Was mit Big Data möglich ist und wie persönliche Daten geschützt werden können, darüber sprachen die Referenten am eGov-Fokus „Data Privacy in der digitalen Dienstleistungsgesellschaft“.
„Gesetze sind eine alte Technologie, damit kann man dem Big-Data-Problem nicht begegnen.“ Mit dieser pointierten Aussage startete Christian Lovis seinen Vortrag. Der Mediziner leitet die Abteilung Medical Information Sciences am Universitätsspital Genf und untersuchte in seiner Präsentation, welche Erkenntnisse Big Data liefert. Aus seiner Sicht sind Big-Data-Resultate nur so gut oder schlecht wie die Daten, auf denen sie beruhen. Daher trainiere etwa IBM seine künstliche Intelligenz Watson mit 30 Milliarden Bildern, die der IT-Konzern von 7500 Kliniken gekauft hatte, um zuverlässige Ergebnisse in eHealth zu erhalten.
Lovis macht bei der Arbeit mit Big Data die Anonymisierung als grösstes Problem aus, das bis heute in der Medizinforschung ungelöst sei. Zudem beruhten noch zu viele Resultate auf „schlechten Datensätzen“. Für Patientinnen und Patienten sei die Frage zudem nicht mehr zu beantworten Wer bin ich? „Im Kontext von Big Data gehen Selbstdefinition und maschinelle Definition auseinander“, erläuterte Lovis. Hingegen könne eine Einzelperson aus der gesamten Weltbevölkerung mit nur fünf Blutzucker- und vier Cholesterolwerten identifiziert werden.
Zufälle können entscheidend sein
Prof. Dr. Christian Scholz
Auch Christian Scholz, Direktor des European Institute for Advanced Behavioural Management (EIABM) in Saarbrücken kritisierte in seinem Vortrag, dass vorliegende Daten zu einseitigen Ergebnissen führten, weil Koinzidenzen verwendet würden. Der Algorithmus verbinde dabei viele zufällige Zusammenhänge miteinander, was weitreichende reale Konsequenzen nach sich ziehe. „Wenn zum Beispiel ein Österreicher nach Frankfurt/Main in ein bestimmtes verruchtes Quartier zieht und ein Bett bestellt, hat er ein Problem: Die Algorithmen stufen ihn als wenig zahlungswürdigen Ausländer ein. Das mag ein falsches Ergebnis sein, aber daraus folgt trotzdem eine Aktion, denn er bekommt deshalb keine Möbel geliefert“, berichtete Scholz. Weiter sei laut Big Data ein junger Mann, der ein Einzelzimmerappartment in der Nähe einer Autobahn bewohnt und einen BMW5 fährt wahrscheinlich ein Terrorist.
Scores werden bei Rekrutierung genutzt
Kämen weitere Daten von noch mehr Personen und quasi zufälligen Themen hinzu, liessen sich Scores bilden. Zusammen mit Re-Identifikation von Personen lassen sich zielgerichtete, individualisierte Manipulationen umsetzen wie etwa in personalisierter Werbung. In den USA nutzten Unternehmen bei der Rekrutierung bereits Big Data, etwa mit Creditscore. „Dann bekommt jemand vielleicht den Job nicht, weil er keine Kreditkarte besitzt und damit als nicht zahlungskräftig eingestuft wurde“, sagte Scholz.
Als Alptraum bezeichnete er den Bürgerscore, der darüber entscheide, wer ein guter Bürger sei. Dies sei in Europa undenkbar aber in China schon wesentlich realer. Dabei würden die Bürgerinnen und Bürger digital erfasst und sozial erwünschtes Verhalten mit Punkten und Leistungen belohnt. „Ich rede hier nicht über Fiktion, die einzelnen Teile sind so alle auch bei uns vorhanden“, betonte Scholz und forderte, dass sich die Wissenschaft vermehrt in die Diskussion einbringt. Um der wirtschaftlichen Macht zu begegnen, sollten aus seiner Sicht Social Media und öffentlichkeitswirksame Kommunikation betrieben werden, so dass sich Forschende, Medienschaffende und Interessierte zu dem Thema stärker vernetzten.
Schweizer Gesetz ohne Recht auf Vergessen
Daniel Hürlimann
Ob alte Technologie oder nicht – ohne Gesetze geht es nicht. Die EU hat eine neue Datenschutzgrundverordnung (DSGVO), die Daniel Hürlimann, Direktor der Forschungsstelle für Informationsrecht an der Universität St. Gallen in den Grundzügen vorstellte. Das umstrittene Gesetz betrifft ab kommendem Jahr auch Schweizer Unternehmen, die mit Daten von EU-Bürgerinnen und Bürgern arbeiten. Zudem ging Hürlimann auf die Totalrevision des Schweizerischen Datenschutzgesetzes ein. Der Entwurf gehe in einigen Punkten über die DSGVO hinaus, umfasse aber bislang nicht das Recht auf Vergessen sowie auf Datenübertragbarkeit, sagte Hürlimann. Der Vorschlag werde im Dezember dem Parlament vorgelegt.
Daniel Gruber Vizedirektor beim Bundesamt für Justiz eröffnete seinen politischen Vortrag mit der Frage: „Wie beweise ich meine Identität im Internet?“ Eine Frage, welche für die allermeisten Transaktionen bereits mit diversen digitalen Identitäten längst gelöst ist (z.B. über Kreditkarten), eine staatliche anerkennte digitale ID – eine E-ID – ist in der Schweiz aber bisher nicht verbreitet. Die Identifizierung im Umgang mit den Behörden wäre im Cyberraum technisch einfach. 2012 erhielt das Bundesamt für Justiz den Auftrag, ein Konzept und einen Rechtsetzungsentwurf für ein staatliches elektronisches Identifizierungsmittel als Zusatz zur physischen Identitätskarte zu entwickeln. Das Konzept wurde nicht zuletzt wegen den schlechten Erfahrungen aus Deutschland fallen gelassen. Das neue E-ID-Konzept sieht deshalb vor, dass private Akteure die E-ID nach staatlichen Standards herausbringen. Gruber zeigte sich überzeugt, dass mit einer privaten Lösung die Verbreitung in der Bevölkerung viel schneller voranschreite, als wenn der technologisch schwerfällige Staat eine E-ID in der Schweiz editiere. Dem Staat falle aber die Aufgabe zu, die verschiedenen Identity Provider zu kontrollieren.
E-ID für den Alltag
Daniel Gruber
Gruber verteidigte diese staatlich-private Lösung gegenüber einer rein staatlichen vehement. Gruber liess sich nicht in die Karten blicken, ob dieses vom BJ favorisierte Konzept in der aktuellen Vernehmlassung auf Zustimmung stösst. Das BFH-Zentrum Digital Society hatte sich an der Vernehmlassung beteiligt und unter anderem kritisiert, dass der Staat nicht selbst eine e-ID realisiere. Dagegen konterte Gruber am eGov-Fokus: „Wir können der Post mindestens so vertrauen wie einer Gemeindeverwaltung.“ Gruber: „Es braucht eine Killer-Applikation, die Nutzer müssen die E-ID im Alltag nutzen. Das ist mit den eher seltenen Interaktionen zwischen Staat und Bürger aber kaum machbar.“ Um die Verbreitung weiter zu vereinfachen, seien unterschiedliche Sicherheitsniveaus vorgesehen (niedrig, substanziell, hoch). Die Daten der staatlichen E-ID würden dem Datenschutz unterliegen, eine Herausgabe an Dritte (z.B. Foto, Zivilstand, Geschlecht) zur kommerziellen Nutzung sei verboten. Ein Reputationsrisiko, wie von vielen in der Vernehmlassung befürchtet werde, besteht laut Gruber nicht. Auf Verordnungsebene könnte der Bundesrat vorschreiben, dass ein Identity Provider den E-ID-Inhabern einen Zugang zu den Aufzeichnungen über den Einsatz der E-ID geben müsse.
Er sieht vor allem Vorteile der Aufgabenteilung, etwa, dass der freie Wettbewerb der Anbieter Dynamik und Weiterentwicklungen bringe, der Staat gleichzeitig aber nicht mit dem rasanten Tempo der technischen Entwicklung mithalten müsse. Und: „Wir bewegen uns im Bereich Vertrauensdienste und Vertrauen ist gut, aber Kontrolle ist besser“, sagte Gruber. Der Staat werde den Anbietern via Anerkennungsverfahren und zweijährlichen Kontrollen quasi ständig auf die Finger schauen.
Staat ist in der Pflicht
Der grüne Nationalrat Balthasar Glättli, ein profilierter Digitalpolitiker in der Schweiz, setzte wie Gruber auch einen Kontrapunkt zu den Eröffnungsreferaten. Gesetzliche Regeln brauche es, auch im sich schnell entwickelnden Cyberraum. Inspiriert vom Bild der Umweltverschmutzung als Folge der Industrialisierung, sprach Glättli von einer Datenverschmutzung. Daten würden gesammelt ohne zu wissen, was später daraus für Applikationen generiert würden. Das Prinizip „produce, reuse, recycle“ sei sinnvoll für die klassische Industrie, im digitalen Zeitalter müsse man allerdings das Prinzip abändern zu „reduce, reuse, recycle.“ Es gelte dafür zu sorgen, dass möglichst wenige Daten überhaupt gesammelt würden.
Balthasar Glättli
Für ihn ist klar, dass Plattformen und Datenkraken nicht von sich aus Datenschutz vorantreiben werden. Auch die Industrie kümmerte sich nicht von sich aus um den Umweltschutz. „Wenn der Staat das nicht tut, werden die Bürgerinnen eines Tages den digitalen Aufstand wagen“, ist sich Glättli sicher. Daten verweigern heisse heute, sich auf die ungünstige Seite des digitalen Grabens zu begeben. „Technisch Versierte können noch so tolle Lösungen finden, die Masse der Mitmenschen wird nicht in diese technischen Biotope kommen“, sagt Glättli. Digitaler Selbstschutz sei daher kein Weg vorwärts, vielmehr sei der Staat in der Pflicht. Er fordert wie auch die Piraten und Konsumentenschützer, dass für Online-Dienste auch mit Geld statt mit seinen Daten bezahlen könne, wer dies wünsche. Die relevanten Daten müssten aber aus den privaten „Datensilos“ befreit werden, um sie als Potenzial einer Gemeinwohlwissensökonomie zugänglich zu machen. Dass aber die privaten Datensammler die Daten freiwillig interessierten Anwendern einer Gemeinwohlökonomie zur Verfügung stellen würden, sei eine Illusion.
Weitere Informationen zum eGov-Fokus finden Sie hier.
https://www.societybyte.swiss/wp-content/uploads/2017/06/eGov_Focus-34-von-95.jpg14401920Anne-Careen Stoltzehttps://www.societybyte.swiss/wp-content/uploads/2023/05/logo-societybyte-DE.webpAnne-Careen Stoltze2017-06-30 15:23:222017-07-13 14:29:24Algorithmen bestimmen, wer wir sind
Ähnliche Beiträge
Es wurden leider keine ähnlichen Beiträge gefunden.
Wir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Websites besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Website anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Websites und auf die Dienste haben kann, die wir anbieten können.
Wichtige Website Cookies
These cookies are strictly necessary to provide you with services available through our website and to use some of its features.
Because these cookies are strictly necessary to deliver the website, refusing them will have impact how our site functions. You always can block or delete cookies by changing your browser settings and force blocking all cookies on this website. But this will always prompt you to accept/refuse cookies when revisiting our site.
We fully respect if you want to refuse cookies but to avoid asking you again and again kindly allow us to store a cookie for that. You are free to opt out any time or opt in for other cookies to get a better experience. If you refuse cookies we will remove all set cookies in our domain.
We provide you with a list of stored cookies on your computer in our domain so you can check what we stored. Due to security reasons we are not able to show or modify cookies from other domains. You can check these in your browser security settings.
Google Analytics Cookies
These cookies collect information that is used either in aggregate form to help us understand how our website is being used or how effective our marketing campaigns are, or to help us customize our website and application for you in order to enhance your experience.
If you do not want that we track your visit to our site you can disable tracking in your browser here:
Andere externe Dienste
We also use different external services like Google Webfonts, Google Maps, and external Video providers. Since these providers may collect personal data like your IP address we allow you to block them here. Please be aware that this might heavily reduce the functionality and appearance of our site. Changes will take effect once you reload the page.
Google Webfont Settings:
Google Map Settings:
Google reCaptcha Settings:
Vimeo and Youtube video embeds:
Other cookies
The following cookies are also needed - You can choose if you want to allow them: