Vernetzung und Konsistenzverlust – Teil 2: Ablenkungen vom Wesentlichen

Kolumne_Banner

Vor knapp 10 Jahren veränderte sich der Insider-Diskurs zum Thema Datenschutz grundsätzlich. Die Resteverwertung damaliger Erkenntnisse ist in vollem Gang. Doch statt den Datenschutz neu auszurichten, vernebelt sie unsere Sicht auf grosse gesellschaftliche Probleme der Gegenwart.

Wir haben (hoffentlich) alle begriffen, dass auch bei der KI das Prinzip «Bullshit in – Bullshit out» gilt. Wer KI mit diskriminierenden Daten oder diskriminierenden Datenkuratierungen – das ist nicht das Gleiche – trainiert, wird eine diskriminierende KI ernten. Das gilt auch dann, wenn weder die Daten noch die Datenkuratierung diskriminierend sind, sondern dem Modell Bullshit-Heuristiken zugrunde liegen. Und – diese Erkenntnis ist ziemlich neu, etwa 5 Jahre alt – es gilt auch, wenn das Optimierungsproblem instabil ist gegenüber kleinen Datenänderungen. In solchen Fällen hilft nur eins: das Gegenteil von dem tun, was man in der analogen Welt gegen Diskriminierung tut: nämlich die Merkmale explizit einzubeziehen, nach denen diskriminiert wird – beispielsweise den Wohnort oder die Herkunft.

So weit, so einfach. Vieles davon hätten wir uns auch denken können, ohne konkrete Beispiele zu sehen, aber Beispiele helfen. Cathy O’Neills Buch «Weapons of Math Destruction» aus dem Jahr 2016 ist voll von überaus illustrativen Beispielen. Wer das Buch liest, begreift auch schnell, warum damals der Diskurs über Datenschutz sich grundlegenden wandelte. Personendaten sollen nicht geschützt werden, sondern ihre missbräuchliche Nutzung soll verboten werden – auch wenn sie mit Einverständnis der Betroffenen geschieht – so die damalige Erkenntnis. In vielen Aspekten war mögliche Diskriminierung ein wesentlicher Grund für den Perspektivenwechsel. Allerdings blieb damals offen – und ist es bis heute – wie eine gute Regulierung vernünftig, praktisch anwendbar formuliert werden könnte.

Ende des konstruktiven Diskurses

Das Faszinierende an der Geschichte ist: Der Diskurs von vor 5 bis 10 Jahren ist erlahmt. Die Praxis der juristischen Auslegeordnung tendiert zu weitreichender Destruktivität, welche oft genug im (un)reinen Irrwitz endet. Beispiel: Hybrider Unterricht gilt neuerdings als kriminell, wenn man nicht in jeder Einheit viele Minuten des Unterrichts für Unterschriftenaktionen aufwendet. Wem damit geschadet werden soll – niemand weiss es. Egal, denn der Datenschutz ist die mächtigste Waffe für die Bewahrung des Stus Quo – und diese wurde schleichend zum höchsten Ziel. Dazu passt, dass das abgehakte Thema Diskriminierung bei der KI-Nutzung hohe Konjunktur hat, die Missbrauchsvermeidung bei der Datennutzung aber kein Thema mehr ist und wir wieder bei den Vorstellungen zum Thema Schutz der Privatsphäre von vor 30 Jahren gelandet sind. Diese waren damals richtig, mit der damaligen Technologie, der damaligen Datenbewirtschaftung und der damaligen Internetkultur – heute sind sie unbrauchbar. Der einzige Fortschritt in Sachen Datenschutzpraxis – die Datenportabilität – ist als Idee gut 10 Jahre alt, wenngleich das Konzept primär erfunden wurde, um die europäischen Cloud-Anbieter zu stärken.

Denn die im Dunkeln sind, die sieht man nicht!

Das scheint alles nicht weiter schlimm, denn Europa ist seit langem schwach darin, Technologiefortschritt in Wirtschaftswachstum umzumünzen. Wir haben uns mittlerweile an das stetige Zurückfallen gewöhnt – und da die europäischen Unternehmen sozialer sind, beziehungsweise sein müssen, als die amerikanischen, verteilt sich das Zurückfallen auf alle und ist somit für niemanden gross spürbar. Aber die moralisch-ethischen Thematisierungen der KI mit gut verstandenen und beherrschbaren Problemen verdeckenden Blick auf das eigentliche KI-Problem. KI wird zu 80% beforscht und entwickelt, um erstens erfolgreicher Werbung zu platzieren oder Menschen politisch zu lenken, um zweitens menschliche Arbeit zu automatisieren und um drittens die Gesellschaft besser überwachen zu können. Bestenfalls 20% der Forschungsaufwände werden darauf verwendet, dass Menschen bessere Arbeit leisten können. Aber vermutlich sind es viel weniger als 20%.

Das Ergebnis: die Position der Arbeitnehmer*innen wird langfristig geschwächt und die Wirtschaft kommt nicht vom Fleck. Wer Beispiele braucht zum besseren Verstehen: Im Buch «Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity» von Daron Acemoglu und Simon Johnson findet sich zuhauf analoge Geschichten aus der Wirtschaftsgeschichte. Das alles, was wir derzeit erleben, verläuft entlang historischer Anti-Patterns. Selbst die Rolle der Moral – heute Ethik – ist eine ganz und gar traditionelle. Sie lenkt ab vom Wesentlichen und stärkt die Starken.

Das grosse Unverständnis über das vermeintliche Unverständnis

Und was tun wir? Viele von den Intellektuellen empören sich darüber, dass Menschen die falschen Parteien oder die falschen Männer wählen, respektive sich einem solidarischen Zusammenstehen in Krisen verweigern. Ich persönlich habe nichts gegen Empörung, solange sie temporär ist. In den meisten Fällen ist es sowieso, Empörung gegen Empörung anderer. Wir sollten uns aber bei aller fröhlichen oder wütenden Empörung zumindest anschauen, wer denn jenen Randgruppen angehört, welche in ihrer empörten Gesamtheit in manchen Ländern bei demokratischen Wahlen auf die 50% zumarschieren. Es sind – verkürzt dargestellt, eine umfassendere Darstellung findet sich im Buch «Triggerpunkte» von Steffen Mau, Thomas Lux und Steffen Westheuser – grossteils die zukünftigen Opfer der eingeschlagenen KI-Entwicklungsrichtung, ergänzt um einen kleinen Teil derer, welche die gesellschaftlichen Entwicklungen besser durchschauen als andere. Wen wundert das noch?

Unsere Handlungsmöglichkeiten

Die gute Nachricht ist: Wir als Gesellschaft haben es in der Hand, wie wir es immer schon in der Hand hatten, was wir aus dem Technologiefortschritt – konkret im Bereich der KI – machen. Wir können einerseits die Richtung von Forschung und Entwicklung ändern und anderseits die Spielregeln für die Verteilung des erzeugten Mehrwerts ändern. Unternehmertum, Forschungsförderung und Politik können jede in ihrem Handlungsbereich den Fortschritt in Sachen KI steuern. Die Frage aller Fragen ist dabei: Wie halten wir es mit dem Menschen? Wollen wir ihn digital befähigen oder digital ersetzen – oder kümmert uns das gar nicht?

Die Antwort ist leider nicht so trivial, wie es vielleicht scheint. Richtig ist, dass grosse Teile von Forschungsförderung und Politik völlig desinteressiert sind an der Zukunft der menschlichen Arbeit. Sie interessiert die Vergangenheit, nicht die Zukunft. Richtig ist, dass viele Unternehmer*innen vor allem das Gewinnwachstum dank neuer Einsparungsmöglichkeiten sehen und sich gar nicht erst mit möglichen neuen Geschäftsmodellen auseinandersetzen. Richtig ist aber auch, dass das «Digital Enabling» nicht einfach ist und auf viele Blockaden trifft.

In vielen Branchen hat die IT neue Aufgaben für die Menschen erfunden, welche weder Spass machen noch klaren Nutzen stiften. Hier wünschen sich viele ein Zurück zur Vergangenheit, das heisst mit ihrer Arbeit anderen Menschen direkten Nutzen bringen, beispielsweise in der Pflege. Ein «Digital Enabling» liegt hier fast jenseits des Vorstellbaren, das Digitale soll die Zeit für die Arbeit mit Menschen zurückbringen, die es vorher gestohlen hat. Anderswo wiederum begreift man, das alles auf die Cyborgisierung hinausläuft – im Sinne des alten Buchs «Natural-Born Cyborgs – Minds, Technologies, and The Future of Human Intelligence» von Andy Clark – und das weckt berechtigte Ängste. Hier könnte (vielleicht) eine Darstellung der menschlichen Externalisierungsgeschichte zwar helfen – ich habe darauf erstaunlich oft sehr positive Rückmeldungen bekommen – aber sie bräuchte mehr Popularisierung. Schaut am weiter herum, so findet man noch andere Blockaden des Digitalen Enablings, die durchaus handfest sind und über reine Denkblockaden hinausgehen. Auch Digital Enabling muss gelernt sein.

Deshalb gilt auch in Bezug auf eine menschengerechte Zukunft der KI-Nutzung: Man muss nicht nur das Richtige wollen (was grossmehrheitliche heute nicht der Fall ist), sondern es auch noch richtig machen können. Immerhin für Letzteres werden heute die ersten Grundlagen an den Hochschulen gelegt. Aber so wie Wollen ohne Können nicht ausreicht, genügt auch Können ohne Wollen nicht. Unser grösstes Problem ist, dass der gesellschaftliche Kontext gegen das Wollen spricht. Die Gemengelage ist dabei hochkomplex. Vielerlei Befindlichkeiten und machtpolitische Interessen verhindern, dass die Vernetzung der Erkenntnisse aus unterschiedlichsten Wissenschaften uns hilft, das Digital Enabling zu fördern. Exemplarisch dafür ist, dass die Anthropologie gerade – der Gerechtigkeit wegen – den Bach runter geht. Wir werden also vielleicht noch viele Jahre mit der KI und unserer Ethik in die falsche Richtung streben, langfristig wird sich aber irgendwann trotzdem die Menschenorientierung durchsetzen (oder auch nicht).


Der 1. Teil der Kolumne ist hier erschienen.

Creative Commons Licence

AUTHOR: Reinhard Riedl

Prof. Dr. Reinhard Riedl ist Dozent am Institut Digital Technology Management der BFH Wirtschaft. Er engagiert sich in vielen Organisationen und ist u.a. Vizepräsident des Schweizer E-Government Symposium sowie Mitglied des Steuerungsausschuss von TA-Swiss. Zudem ist er u.a. Vorstandsmitglied von eJustice.ch, Praevenire - Verein zur Optimierung der solidarischen Gesundheitsversorgung (Österreich) und All-acad.com.

Create PDF

Ähnliche Beiträge

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert