Müssen wir die Mathematik regulieren?

Die logische Welt der Mathematik entzieht sich dem politischen Denken. Trotzdem dürfen wir bei der Regulierung digitaler Werkzeuge die Mathematik nicht als Black Box betrachten. Ein Beitrag von unserem Anlass «Gefährliche Mathematik».

Die Frage nach der Regulierung der Mathematik ist seit Längerem ein Thema. In der Schweiz widmete beispielsweise der Verein eJustice.ch schon 2014 seine Tagung Informatik und Recht dem Thema Big Data Governance. 2017 wurde ich selbst erstmals von Politikern auf die Regulierung von Algorithmen angesprochen, beim European Health Forum Gastein. Die Frage wurde mir bei einer Podiumsdiskussion zu Frühdiagnosen von einem Mitglied des portugiesischen Parlaments gestellt. Sie lautete im Wesentlichen so: Wie kann man Algorithmen nach gesellschaftlichen Kriterien klassifizieren, sodass dies auch mathematisch sinnvoll ist?

Nach allem, was wir bisher verstehen, ist die Antwort darauf: Das ist nicht möglich! Wir können einiges seriös über den Nutzungskontext sagen, nicht aber über die mathematischen Algorithmen. Doch auch die Regulierung des Nutzungskontexts ist unklar. Denn was gehört den zur Nutzung, respektive zum Einsatz, der Algorithmen dazu?

Cathy O’Neill hat in ihrem eindrücklichen Buch Weapons of Math Destruction zwar wichtige Eigenschaften des Algorithmeneinsatzes thematisiert, beispielsweise das Vorhandensein oder Nichtvorhandensein von Feedbacks, doch solche Kriterien sind nur notwendig, aber keineswegs hinreichend. Man stelle sich vor, die Formel 1 würde sich auf die Vorgabe einiger weniger Grundregeln wie das Vorhandensein von Bremsen beschränken und weder Vorgaben zum Chassis noch Vorgaben zum Motor oder zum Treibstoff machen. Das Resultat wäre ein Wettbewerb der Todeswilligen, in dem wohl nur die Irrsinnigen Gewinnchancen hätten.

Tatsächlich sind die Algorithmen zwar weder gut noch böse, aber im speziellen Kontext können sie die richtigen oder die falschen Algorithmen sein und ihre Eigenschaften können auf den Nutzungskontext bezogen sehr wohl gefahrenvermeidend oder gemeingefährlich wirken. Allerdings interessiert uns dies erst seitdem die Entwicklung von Rechenmaschinen infolge der jahrzehntelangen Gültigkeit des Mooreschen Gesetzes gewaltige Fortschritte gemacht hat. Deshalb ist es sinnvoll, Mathematik in Bezug auf Regulierungsfragen als Teil des Computational Thinking (CT) zu betrachten.

Die gemeinsame Geschichte von Mathematik und Computational Thinking

CT und Mathematik haben eine eng verwobene Geschichte. Sie entstanden gemeinsam vor etwa 6000 Jahren. Im Laufe der Geschichte entwickelte CT die Vision, menschliche Fehler durch den Bau und die Nutzung von Rechenmaschinen zu vermeiden. Im 20. Jahrhundert wurde diese Vision erfolgreich umgesetzt. Heute steht, wie man in Peter J. Dennings und Mattie Tedres Buch zu Computational Thinking nachlesen kann, CT für zwei komplementäre Aspekte: das Designen von maschinenausführbaren Berechnungen und die Interpretation der Welt als Informationsprozesse.

Die Mathematik spielte für die Entstehung des modernen CTs im 20. Jahrhundert eine dreifache Rolle:

  • Sie lieferte die Motivation (Automatisierung des Rechnens),
  • die Grundlagen (u.a. in Form der Universellen Maschine)
  • und den nichtmateriellen Teil des Maschinenraums moderner «Computer» (die Algorithmen).

Die Motivation hat sich seither stark erweitert: Es geht heute auch um die Automatisierung der Steuerung und Ausführung von Arbeits- und Geschäftsprozessen, das Design virtueller Welt und das Verstehen der Welt. Bei diesen Entwicklungen spielte die Mathematik zumindest teilweise eine wichtige Rolle, und zwar für beide Aspekte des CT!

Auch die Grundlagen des CT haben sich in den letzten Jahrzehnten stark erweitert. Dazu zählen heute die Grundlagen des Programmierens (CT im Kleinen), die Grundlagen der Applikationsentwicklung (CT im Grossen), Designprinzipien (für die Interaktion mit den Menschen) und neuen Maschinenmodellen (u.a. für Quantenrechner). Allerdings war bei der Erweiterung der Grundlagen die Mathematik überfordert und neu, wo Mathematik und Naturwissenschaften wieder mehr eine Rolle spielen, ist es die Informatik, die überfordert ist. Es gibt beispielsweise kaum Software-Ingenieure für Quantenrechner.

Dafür machte die Mathematik im nichtmateriellen Teil des Maschinenraums moderner Computer grosse Fortschritte, nachzulesen unter anderem in Sebastian Stillers Planet der Algorithmen:

  • Zum Teil war die Beschleunigung der Algorithmen noch wirksamer als die Beschleunigung der Rechner.
  • Durch Symbiosen zwischen Algorithmen und Bewertungskriterien konnten viele praktische Probleme sehr effektiv gelöst werden.
  • Es gab exemplarische Fortschritte beim Entwickeln mathematischer Lösung für gesellschaftliche Probleme.
  • Algorithmen lieferten neue Modelle zum Erklären sozialer Phänomene und damit Hilfsmittel zum besseren Verständnis der Welt.

Die phänomenologischen Auswirkungen

Mit diesen Fortschritten kamen neue Trends, welche vorzugsweise als entgegengesetzt ausgerichtete Trendpaare auftreten. Beispielsweise wurde und wird die Welt immer transparenter, doch dies geschieht erstens nur potentiell und nicht praktisch (weil im Meer der vielen Information wichtige Informationen leicht übersehen werden) und zweitens wird es zunehmend intransparent, wie all die digitalen Werkzeuge funktionieren, die uns auf Informationen hinweisen.

Die Folge dieser Trendpaare ist ein dynamisches (Un-)Gleichgewicht. Wir haben mehr freie Zeit und mehr Optionen und wir können neue Fertigkeiten erlernen und die Welt besser verstehen. Wir verlernen aber auch viele Fertigkeiten, bekommen viele neue sinnlose Handlungsmöglichkeiten, verstehen unsere Werkzeuge immer schlechter und wir sind zunehmend von Korruption bedroht, nämlich überall dort, wo die Nichtnutzung digitaler Werkzeuge die relative Ineffizienz wachsen lässt.

Vor allem aber schrumpft unser Handlungsspielraum für kreatives Handeln, denn menschliche Kreativität benötigt nicht zu viel und nicht zu wenig Freiraum. Aber gerade die Bereiche, in denen wir eng geführt und kontrolliert werden, respektive hohem Wettbewerbsdruck ausgesetzt sind, und die Bereiche in dem schier alles möglich und die Freiheit fast grenzenlos ist, wachsen beide dank CT sehr stark. Zwischen diesen beiden Extremzonen bleibt immer weniger Raum, in dem wir unsere menschliche Kreativität entfalten können.

Dazu kommt – unter vielem anderem – dass CT und die Mathematik den Schutz der Privatsphäre zerstören und neue Handlungszwänge schaffen: ersteres beispielsweise durch die De-Anonymisierung von Daten und letzteres beispielsweise durch eine Teilautomatisierung von Entscheidungen.

Ordnungsprinzip für die Regulierung

Die obigen Beobachtungen bestätigen, dass wir über Regulierungen nachdenken müssen. CT schafft auch ohne Dystopien grosse Probleme, wo es unreflektiert oder/und inkompetent eingesetzt wird.

Die skizzierte historische Entwicklung des CT liefert uns ausserdem eine Leitlinie für die Regulierung. Diese sollten folgende inhaltlichen Aspekte adressiert werden:

  1. Die eigentlichen Algorithmen (welche die passenden Qualitäten besitzen müssen)
  2. Das Zusammenwirken zwischen Algorithmen und Kriterien zur Bewertung von Echtweltlösungen (welche adäquat für diese Probleme sein muss, nicht diskriminierend wirken darf, etc.)
  3. Die Programme (welche genügend korrekt sein müssen)
  4. Die Qualität(en) des Engineerings (d.h. des CT im Grossen)
  5. Das Design der Schnittstellen zu den Nutzenden (welches eine adäquate Nutzung fördern muss, wobei die Anforderungen dazu kontextabhängig unterschiedlich hoch sind)
  6. Das Qualitäts-, Sicherheits- und Risikomanagement im praktischen Einsatz
  7. Die Bereitstellung von Informationen und Unterstützung

Man sieht, dass die Algorithmen nur einen von mehren Teilaspekten darstellen. Dieser Teilaspekte sollte aber keinesfalls unterschätzt werden, das er sich auch hinter anderen Aspekten verbirgt. Weiters zeigt sich, dass eine kontextunabhängige Regulierung angesichts der komplexen Wirkungsvielfalt nicht mehr möglich ist. Die aufgezählten inhaltlichen Aspekte müssen jeweils in Bezug zum Nutzungskontext betrachtet werden. Wir müssen uns also in der Regulierungsdiskussion tatsächlich mit Angewandter Mathematik beschäftigen. Das ist auch für die Mathematik neu!

Creative Commons Licence

AUTHOR: Reinhard Riedl

Prof. Dr. Reinhard Riedl ist Dozent am Institut Digital Technology Management der BFH Wirtschaft. Er engagiert sich in vielen Organisationen und ist u.a. Vizepräsident des Schweizer E-Government Symposium sowie Mitglied des Steuerungsausschuss von TA-Swiss. Zudem ist er u.a. Vorstandsmitglied von eJustice.ch, Praevenire - Verein zur Optimierung der solidarischen Gesundheitsversorgung (Österreich) und All-acad.com.

Create PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert