Digitale Personalisierung – Zukunftschance oder Sackgasse (2)

Kolumne_Banner

In Teil 1 dieser Kolumne wurde hervorgehoben, dass digitale Personalisierung bedingte Erwartungswerte optimiert, um massgeschneiderte Produkte und Dienstleistungen und Preise zu offerieren. Die Bedingung ergeben sich dabei aus den vorhandenen Daten und enthaltenen Informationen über die Kund*innen. Im Idealfall bringt dies Kund*innen und Anbieter*innen grosse Vorteile und verändert die Gesellschaft tiefgreifend, denn aus der Orientierung am Durchschnitt wird die Orientierung an konkreten Menschen. Das ist ein substanzieller Fortschritt, wobei es aber sehr auf die konkrete Umsetzung ankommt.

Das «Raus aus dem Prokrutesbett des Durchschnittsmenschen» (häufig auch: des Durchschnittsmanns) kann schnell zu einem «Rein ins Prokrutesbett der Datenpersonalisierung» werden, wenn den Kund*innen die Personalisierung ohne Opt-out-Möglichkeiten aufgezwungen wird. Entscheidend bleibt, wie ernst individuelle Sichtweisen von Kund*innen genommen werden. Daten und Empathie müssen in der Kundenorientierung zusammenfinden, damit die digitale Personalisierung Mehrwert schafft.

In der Praxis kommt es oft ganz anders: Kund*innen, seltener Anbieter*innen oder auch beide nehmen Schaden an der digitalen Personalisierung. In Teil 1 wurden diesbezüglich drei grundsätzliche Ambivalenzen der digitalen Personalisierung aufgezeigt. Es ist erstens nicht notwendigerweise der Wunsch der Betroffenen, digital personalisierte Angebote zu bekommen. Selbst wenn es deren Wunsch ist, funktionieren zweitens diese Angebote nicht immer wie beabsichtigt. Und selbst wenn sie funktionieren, kann ihre Wirkung drittens sehr negativ sein, ohne dass dies den Betroffenen bewusst wird.

Individuelle, komparative und gemeinschaftliche Wahrnehmung

Werden wir vor die Wahl gestellt, digital personalisierte Angebote zu bekommen, fällt uns die Antwort nicht immer leicht. Will ich einen festen Preis im Supermarkt zahlen oder einen personalisierten? Wie gefällt es mir, wenn einige andere noch bessere Angebote bekommen? Nervt mich die fremdbestimmte Wahl meiner Präferenzen? Akzeptiere ich, dass ein Algorithmus meinen Servicewunsch priorisiert, statt faires First-Come-First-Served (FCFS) zu praktizieren? Und selbst wenn ich bevorzugt werde, will ich mich so von der Gemeinschaft absondern?

Bei letzter Frage werden die meisten Ökonom*innen ein selbstverständliches Ja annehmen, aber das ist nicht immer realistisch. Es gibt oft gute Gründe, nicht aufzufallen – ganz abgesehen von Situationen, in denen der individuelle Vorteil vermeintlich oder tatsächlich zu Lasten der näheren Umgebung geht. Meist wird trotzdem die subjektive Wahrnehmung des eigenen Vorteils entscheidend dafür sein, ob mir digitale Personalisierung gefällt oder nicht. Unwissen fördert dabei die Akzeptanz, während mehr Wissen und Verstehen sie eher reduziert. Denn Personalisierung strebt in der Regel eine doppelte Wertoptimierung an: einerseits eine Optimierung des Werts von Produkten, Dienstleistungen und Kommunikationspraktiken für die Kund*innen und anderseits eine Optimierung des Wertes der Kund*innen für die Anbieter*innen. Letzteres ist häufig ganz und gar nicht im Interesse der Kund*innen.

Neben der subjektiven Wahrnehmung des absoluten Nutzens der Einzelnen und des relativen Nutzen im Vergleich zu anderen – oft wiegt ein relativer Nachteil schwerer als ein objektiver Vorteil – sind auch noch andere Aspekte für die Akzeptanz wichtig, insbesondere Autonomie und Solidarität. Fremdbestimmte Personalisierung kann nicht nur ein reales Ärgernis sein, sondern sogar subjektiv als psychische Verletzung wahrgenommen werden. Letzteres insbesondere dann, wenn sie die eigene Autonomie in Frage stellt. Personalisierung kann aber auch als intentionale Diskriminierung interpretiert werden. Und sie kann als Angriff auf das Miteinander empfunden werden. Wenn wir alle die Welt unterschiedlich erleben infolge unterschiedlicher Angebote und Preise, dann fördert dies den individuellen Egoismus zu Lasten der gesellschaftlichen Solidarität. Je nach politischer Positionierung werden die einen dies als Fortschritt ansehen und andere als gefährlichen Rückschritt.

Entkommen aus dem Prokrutesbett des Durchschnitts – 7 kritische Aspekte

Aber auch wenn beide Seiten – Personalisierende und Personalisierte – der Sache positiv gegenüberstehen, gibt es viele ernsthafte Herausforderungen. Grundsätzlich befreit uns die datenbasierte Personalisierung aus dem Prokrutesbett des (meist verwendeten männlichen) Durchschnitts. Wenn sie inkompetent gehandhabt wird, zwingt sie uns aber neu ins Prokrutesbett der datenbasiert berechneten Präferenzen, welche mit unseren eigentlichen Intentionen nicht übereinstimmen müssen. Entscheidend für die Wirkung einer digitalen Personalisierung sind die Fitness des Designs (Struktur- und Designqualität), die Qualität der praktische Umsetzung (Prozessqualität) und der praktische Anwendungsfall (Ergebniskontext).

Diese 3 Qualitätsdimensionen werden durch 7 Aspekte wesentlich bestimmt

  1. Wie viele Daten sind über ein Individuum vorhanden und wie geeignet sind sie, um die Bedingungen (für die Optimierung des Erwartungswerts) möglichst aussagekräftig formulieren zu können?
  2. Wie viele relevante Daten über andere Individuen sind vorhanden, um bedingte Wahrscheinlichkeiten (für die Erwartungswertberechnung) adäquat schätzen zu können?
  3. Wie gut sind die Algorithmen zur Berechnung der geschätzten bedingten Wahrscheinlichkeiten bezogen auf den konkreten Kontext?
  4. Wie weitgehend können Produkte, Dienstleistungen oder Aktionen an die geschätzten Präferenzen/Dispositionen effektiv angepasst werden?
  5. Wie konsequent und wie kundenfreundlich wird die datenbasierte Personalisierung operativ umgesetzt?
  6. Wie seriös wird die Personalisierung mit Feedbackmechanismen und kritischer Hinterfragung der Ergebnisse kontrolliert (und bei Defiziten entsprechend korrigier)?
  7. Wie weitgehend die Auswirkungen auf die Betroffenen?

Diese Aspekte klingen vermeintlich harmlos, doch in der Praxis tun sich riesige Gräben auf, je nachdem wie die Antwort auf die zitierte Frage ausfällt. Digitale Personalisierung ohne Feedbackmechanismus ist pure Diskriminierung – auch wenn irgendwie irgendwelche wissenschaftlichen Datenanalysen dahinterstecken. Eine ökonomisch sinnvolle wie eine ethisch verantwortungsbewusste digitale Personalisierung setzt deshalb voraus, dass man das WAS und die Qualität des WIE prüft. Dabei sollten die einzelnen Aspekte im Bezug zueinander beurteilt werden. Je grösser beispielsweise die Auswirkungen für die Betroffenen sind, desto anspruchsvoller sollte das Qualitätsmanagement sein.

Daraus den Schluss zu ziehen, besser von der digitalen Personalisierung die Finger zu lassen, wäre aber falsch – und zwar aus ökonomischer wie aus ethischer Sicht. Beispielsweise ist es ethisch fragwürdig, auf einen grossen Nutzen personalisierter Therapien in der Medizin zu verzichten, weil man dafür personenbezogene Gesundheitsdaten nutzen will.

Digitale Transformation von Himmel und Hölle: die Wunscherfüllungsmaschine

Früher gehörte es zur abendländischen Predigerkunst, Himmel und Hölle eindrucksvoll zu schildern. James Joyce hat dazu besonders eindrucksvolle Beispiele verfasst. Heute sind stattdessen digitale Utopien und Dystopien populär, welche bemerkenswerterweise aber nur das Kollektiv – vor allem im Fall der Dystopien. Statt des einzelnen Menschen steht neu die Menschheit im Zentrum von Belohnung oder Bestrafung. Das ist literarisch so fade wie bislang philosophisch – nach unserer Kenntnis – unergiebig.

Nehmen Sie sich darum einmal Zeit, den guten alten Himmel und die gute alte Hölle in Gedanken spielerisch digital zu transformieren! Sie werden feststellen, dass digitale Gadgets sich furchterregend gut für den Einsatz in Himmel oder Hölle eignen. Der Witz dabei ist, dass man mit ihnen nicht experimentiert – das eignet sich nur für den Himmel oder die Hölle auf Erden – sondern sie sich tatsächlich aus der jeweiligen Managementperspektive aneignet. Ausdrückliche Warnung: das Gedankenexperiment ist nicht nebenwirkungsfrei!

Will man sich der Frage ernsthafter zuwenden, so erweist sich eine digital personalisierte Wunscherfüllungsmaschine als guter Ausgangspunkt. Sie ist so programmiert, dass sie das «Gefühl» einer optimalen Personalisierung vermittelt. Gelegentliche Fehler korrigiert sie schnell. Nur dass sie im Himmel die Menschen vor neue gerade noch bewältigbare Herausforderungen stellt und in der Hölle die Inaktivität fördert und innere Anreize, etwas Neues zu lernen durch Erfüllung anderer Bedürfnisse blockiert.

Das illustriert anschaulich, was das Grundproblem mit gewünschter und funktionierender digitaler Personalisierung ist: Sie beeinflusst unser Leben, ohne dass wir diesen Einfluss wirklich wahrnehmen. Je nach Zielperspektive der Anbieter hilft es uns, zu lernen und uns zu entwickeln, oder es schränkt uns ein, lässt uns festkleben an Tätigkeiten und macht uns unbeweglicher.

Unethische Personalisierung: Die Suche nach den Schwachen

Neben ambivalenten Formen gibt es auch klar unethische Formen von digitaler Personalisierung. In den USA werden Daten über Menschen in schwierigen persönlichen Situationen gehandelt, deren Schwäche man kommerziell ausnutzen kann. Diese bekommen dann Angebote, welche man Menschen in gefestigten persönlichen Umständen nicht machen würde, beispielsweise versucht man sie als Student*innen für kommerziell ausgerichtete Universitäten zu gewinnen – im Wissen darum, dass sie voraussichtlich das Studium nicht schaffen werden und sich schwer tun werden, den Studienkredit jemals zurückzuzahlen.

Die skizzierte Praxis ist nicht illegal und ähnelt der Geschäftspraxis von Fitnessstudios mit dem Unterschied, dass man für ein in den meisten Fällen dann nicht genutztes Jahresabo eines Fitnessstudios keinen Kredit aufnehmen muss und meist gar nicht erst so richtig dazukommt, sich zu quälen, bevor man aufgibt. Die Geschäftslogik dieser Studierendenrekrutierung ist genial perfide: Man wirbt zwar nicht genau jene an, die keine Chancen haben, das Studium zu bestehen -aber das Ergebnis kommt dem sehr nahe. Jene digitalen Daten, die einem auf die Liste der zu Rekrutierenden bringen, schliessen einen von vielen wirklich attraktiven Angeboten und Jobmöglichkeiten aus.


3. Teil

In Teil 3 dieser Kolumne werden persönliche Strategien für den Umgang mit Personalisierung diskutiert, sowie technische Optionen und die Bewusstseinsbildung in den Schulen.

AUTOR/AUTORIN: Reinhard Riedl

Reinhard Riedl leitet das BFH-Zentrum Digital Society und gibt das Online-Magazin SocietyByte heraus. Er war Präsident der Schweizerischen Informatikgesellschaft sowie der Internationalen Gesellschaft für Neue Musik Bern IGNM.

PDF erstellen

Ähnliche Beiträge

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.