Wie uns die Technologie hilft, die Datenschutz-Eisberge zu umschiffen

Privacy Enhancing Technologien, stellen sicher, dass die Sicherheitsrisiken der Bearbeitung der Kund*innendaten überschaubar bleiben, Ihre Kund*innendaten gesetzeskonform gegen alte und neue Bedrohungsszenarien geschützt sind und Ihre Datennutzungsinitiativen auf Kurs bleiben.

Im ersten Teil dieses Beitrags haben wir festgestellt, dass die Datenschutzgesetze strenger werden und die Kund*innen weniger Nachsehen haben, wenn der Datenschutz verletzt wird. Zudem wird der Druck grösser, mehr aus Daten zu machen und die Werkzeuge, die wir seit Jahren im Datenschutz einsetzen, haben viele Schwachstellen . Deshalb werden sie sehr eingeschränkt eingesetzt. Im zweiten Teil werden wir einige innovative Technologien kennenlernen, die uns in Zukunft aktive und gleichzeitig gesetzeskonformes Umgang mit Kund*innendaten ermöglichen werden.

Datenschutz – Mittendrin statt nur dabei

Der Datenschutz war schon immer eine stark interdisziplinäre Tätigkeit. Der Blumenstrauss aus aufeinander abgestimmten vertraglichen, organisatorischen und technologischen Massnahmen stellte sicher, dass die Datenschutzrisiken auf ein Minimum reduziert werden.

Während in der Vergangenheit die technologischen Massnahmen in diesem Mix eher eine unterordnete Rolle gespielt haben, und die Rechtsabteilungen beim Thema Datenschutz federführend waren, verändert sich die Situation mit der schnellen Verbreitung der Privacy-by-Design Prinzipien. Dieser Ansatz, deren Ursprung im Bericht über «Privacy Enhancing Technologies» im Jahr 1995 zu finden ist[1], geht davon aus, dass der Datenschutz am besten eingehalten wird, wenn er bei der Entwicklung von Produkten, Dienstleistungen und den unterstützenden Prozessen bereits vom Anfang an technisch integriert ist.

Eine der grossen Herausforderungen bei der Umsetzung von Privacy-by-Design Prinzipien in den vergangenen 25 Jahren war das Fehlen von marktreifen Technologien, welche:

  • eine vollständige Anonymisierung der Daten und der Ergebnisse der Datenverarbeitung garantieren würden oder
  • einen starken Schutz der Daten während der Bearbeitung bieten würde.

Diese Technologien sind mittlerweile marktreif und entweder als kommerzielle Lösungen oder als Open-Source-Frameworks verfügbar.

Das Licht am Ende des Tunnels

In den letzen 5 Jahren konnten wichtige technologische Durchbrüche erzielt werden, die uns ermöglichen, die oben erwähnten Probleme wirksam zu lösen.Diese neuen Technologien werden häufig Privacy Enhancing Technologies (PETs) genannt[2]. PETs umfassen eine Reihe von Hardware- oder Softwarelösungen, die darauf ausgelegt sind, datenschutzkonforme Datenbearbeitung zu ermöglichen, , ohne dabei die Privatsphäre und Sicherheit der Daten selbst zu gefährden. Dabei eliminieren PETs die zwei grössten Schwachstellen der traditionellen Datenschutz-Tools:

  • die Notwendigkeit, Vertrauen in die Partei zu haben, welche die Daten bearbeitet und
  • das Risiko, dass die Kund*innen aus verfremdeten Daten reidentifiziert werden können.

Die wichtigsten PETs, die eine vollständige Anonymisierung der Daten oder die Anonymisierung der Ergebnisse einer Datenanalyse ermöglichen sind:

  • KI-generierte Synthetische Daten
  • Heute wird es immer einfacher Kund*innen, dessen Daten durch klassische Anonymisierung und Pseudonymisierung verfremdet wurden, zu reidentifizieren. Die von einer künstlichen Intelligenz generierte synthetische Daten, beibehalten die statistischen Eigenschaften und die Verwendbarkeit der Originaldaten und können in vielen Fällen die echte Kund*innendaten ersetzen. Der Generator für synthetische Daten trainiert zunächst mit Daten aus der «realen Welt» und erzeugt dann synthetische Daten ohne direkte Verbindung zu den einzelnen Datenpunkten der Originaldaten. KI-generierte Daten sind daher vollständig anonym und ihre Nutzung fällt nicht unter die Datenschutz Gesetzgebung.Differential Privacy

Differential Privacy ist ein Kriterium, das misst, wie viel ein Resultat einer Berechnung über einzelne Eingabewerte verrät. Etwas vereinfachter formuliert, können wir dank Differential Privacy sagen, ob sich anhand des Resultats einer Datenverarbeitung ermitteln lässt, ob eine Person im dazu verwendeten Datensatz erhalten war oder nicht. Differential Privacy stellt sicher, dass ein aussenstehender Beobachter, der das Ergebnis einer Berechnung sieht, nicht in der Lage ist, zu erkennen, ob ein bestimmter einzelner Datensatz (bspw. ein Kunde) als Eingabewert verwendet wurde, unabhängig davon, welche anderen Datensätze dem Beobachter zur Verfügung stehen.

Die wichtigsten PETs, die eine Datenbearbeitung mit Originaldaten ermöglichen – auch in den Situationen, bei welchen man kein volles Vertrauen in die Parteien hat, die die Daten bearbeiten –  sind:

  • Secure Multiparty Computation

Normallerweise bedarf eine Datenzusammenarbeit, dass die Daten physisch auf einem Ort zentral zusammengefügt werden müssen. Secure multiparty computation ist eine kryptografische Technologie, die es verschiedenen Parteien ermöglicht, Daten gemeinsam zu analysieren, ohne sie zu teilen. Diese Technologie verspricht eine Schlüsselrolle bei der Schaffung von Multi-Stakeholder-Ökosystemen zu spielen, die aus der dezentralen Analyse gemeinsamer Datensätze einen Mehrwert schaffen, ohne dass eine gemeinsame Nutzung der Daten erforderlich ist.

  • Homomorphic Encryption

Konventionelle Verschlüsselungsmethoden verunmöglichen eine Nutzung der Daten im verschlüsselten Zustand. Die Homomorphic Encryption (HE), eine softwarebasierte Methode, ermöglicht hingegen Dritten, verschlüsselte Daten zu verarbeiten und in einigen Fällen sogar zu manipulieren, ohne die zugrunde liegenden Daten in einem unverschlüsselten Inhaltsformat zu sehen. Daher können mit HE gesicherte Daten während ihrer Verarbeitung vertraulich bleiben, so dass nützliche Aufgaben mit den Daten in nicht vertrauenswürdigen Umgebungen durchgeführt werden können.

  • Confidential Computing

Nutzung eines fremdgehosteten Dienstes eines Dritten, erhöht die Datensicherheitsrisiken. Confidential Computing ist eine hardwarebasierte Methode, die Daten während der Nutzung schützt, indem Berechnungen in einer vertrauenswürdigen Ausführungsumgebung (Trusted Execution Environment oder TEE) durchgeführt werden. Diese sicheren und isolierten Umgebungen verhindern den unbefugten Zugriff auf oder die Änderung von Anwendungen und Daten während der Nutzung.

Welche ist die richtige PET für Ihre Organisation? Dies hängt stark davon ab, welches Datenschutzproblem Sie am dringendsten lösen möchten. Möchten Sie eine Datenkollaboration mit Dritten initiieren oder Ihr Testingprozess von Produktionsdaten befreien?

Einige Fragen, die Sie auf dem Weg zur ersten PET beantworten müssen, sind:

  • Welche Art der Datenbearbeitung möchten Sie durchführen?
  • Welche Personendaten benötigen Sie dazu?
  • Was ist der Kontext der Datenbearbeitung? Wer bearbeitet die Daten? Wo? Wie? Zu welchem Zweck?

Viele oben beschriebene PETs werden bald zum Standard-Technologiepaket eines Unternehmens gehören. Sie werden uns helfen, datenschutzfreundliche Datennutzung im Unternehmen und Privacy-by-Design Prinzipien im Unternehmen zu etablieren. Sie werden aber nie eine Patentlösung für alle Datenschutzprobleme werden. Datenschutz wird auch in Zukunft eine interdisziplinäre Disziplin bleiben, die sich sicherlich viel stärker auf die technologische Datenschutzlösungen wie PETs abstützen wird, aber dabei nicht auf verträgliche und organisatorische Massnahmen wird verzichten können.


Dieser Artikel ist Teil 2 nach dem 1. Teil Wie Unternehmen unsere Daten nutzen, aber auch schützen, in dem es um die Herausforderungen der Unternehmen ging.


Ein CAS für den Einsatz von KI in Unternehmen

Wie man das Potential der künstlichen Intelligenz im eigenen Unternehmen ausschöpfen kann, vermittelt die zweite Auflage des CAS AI for Business der BFH Wirtschaft. Der Studiengang bietet eine stark praxisorientierte Einführung in Artificial Intelligence (AI) und Maschinelles Lernen (ML) für Führungskräfte ohne technische Kenntnisse. Es unterstützt Fach- und Führungskräfte aus Wirtschaft, Verwaltung und Non-Profit-Organisationen darin, das Potenzial von AI besser einzuschätzen und mit Data Scientists wirksam zu kommunizieren. Mehr Informationen und Anmeldung.


Referenzen

[1] Hes, R. & Borking, John. (1995). Privacy-Enhancing Technologies: The Path to Anonymity.

[2] Digital Banking Blind Spot – PETs (Mobey Forum 2021)

Creative Commons Licence

AUTHOR: Amir Tabakovic

Amir Tabakovic (lic.rer.pol. Universität Bern) leitet den CAS Artificial Intelligence for Business an der BFH Wirtschaft. Er ist Dozent an Hochschulen in der Schweiz und Spanien und berät Unternehmen bei der Nutzung von Künstlicher Intelligenz und Machine Learning.
Er ist Ehrenmitglied und ehemaliges Vorstandsmitglied des globalen Industrieverbands für digitale Finanzdienstleistungen Mobey Forum, wo er derzeit den Vorsitz der Expertengruppe zum Datenschutz im Zeitalter der KI innehat. Darüber hinaus ist er ein Frühphasen-Investor und ein strategischer Berater für mehrere AI/ML-Startups in Europa und den USA.

Create PDF

Ähnliche Beiträge

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert