In der Vergangenheit wurde künstliche Intelligenz (Artificial Intelligence, AI) oftmals so dargestellt, dass sie eines Tages den Menschen ersetzen könnte. Heute geht man davon aus, dass dies in absehbarer Zukunft nicht so sein wird, und auch nicht so sein sollte. Deswegen reden wir nun von Augmented Intelligence statt Artificial Intelligence.
Lange galt es als Ziel der künstlichen Intelligenz, den Menschen für vielerlei Aufgaben komplett zu ersetzen. Beispielsweise wurde das Gebiet wie folgt umschrieben [1]:
“The art of creating machines that perform functions that require intelligence when performed by people.” (1990) [2]
“The study of how to make computers do things at which, at the moment, people are better” (1991) [3]
Dieser Ansatz zielt darauf ab, Computerprogramme zu erstellen, welche nicht nur repetitive Aufgaben erledigen können, sondern auch Aufgaben, welche eine intellektuelle Leistung von einer Person erfordern. Der Turing Test [4], welcher 1950 von Alan Turing entwickelt wurde, definiert eine operationale Definition von künstlicher Intelligenz. Ein Benutzer*in interagiert in schriftlicher Form mit einem Computerprogramm und stellt Fragen. Ist der/die Benutzer*in nach Abschluss dieses Tests nicht in der Lage, zu unterscheiden, ob die Antworten von einem Computer oder einer Person kamen, so gilt der Turing Test als bestanden.
Es kam jedoch in den letzten Jahren auch oft die Frage auf, ob eine solche künstliche Intelligenz überhaupt zielführend und wünschenswert ist.
Digitale Ethik
Es existiert eine ganze Reihe von Berichten, welche nahelegen, dass die Quellen, welche für das Training von Software verwendet werden, nicht immer fair sind. Beispielsweise konnte aufgezeigt werden, dass es in Wikipedia Artikeln Unterschiede gibt, wie Frauen oder Männer beschrieben werden [5] [6]. Forscher in den USA konnten zeigen, dass über Jahre ein Analyseprogramm zur Risikoberechnung für Straftäter*innen verwendet wurde, welches die afroamerikanische Bevölkerung benachteiligt [7]. Bei einem grossen Tech Unternehmen wurde nachgewiesen, dass die Software, welche das Einstellungsverfahren neuer Mitarbeitenden erleichtern sollte, unfair gegenüber Frauen war [8]. Daneben gibt es noch viele weitere Beispiele, und das Thema digitale Ethik hat es auf Grund dieser zahlreichen Skandale mittlerweile in die breiten Medien geschafft.
Es ist deswegen nötig, dass sich die digitale Gesellschaft der Zukunft damit auseinandersetzt, wie die Zusammenarbeit zwischen der Software und dem Menschen aussehen soll. Menschen und Computer haben komplementäre Fähigkeiten: Computer können sehr gut grosse Mengen von Daten in kürzester Zeit bearbeiten oder effizient Berechnungen durchführen. Dagegen sind sie nicht in der Lage, sich zu reflektieren oder Entscheidungen moralisch zu hinterfragen. Es gibt daher schlichtweg gewisse Tätigkeiten, die ein Computer nicht ausführen kann, und es daher auch nicht tun sollte.
Wenn Sprachassistenten diskriminieren
Auf Grund dieser Diskrepanz der Fähigkeiten muss die Rolle der künstlichen Intelligenz neu gedacht werden. Wir verwenden daher oftmals den Begriff Augmented Intelligenz statt Artificial Intelligence. Dahinter verbirgt sich die Idee, dass der Computer dem Menschen als Werkzeug dient und die menschliche Intelligenz erweitert, nicht aber den Menschen ersetzt [9].
Ein typisches Beispiel einer solchen Zusammenarbeit ist ein Sprachassistent, wie er typischerweise in Smartphones vorhanden ist. Wenn wir diesen auffordern, uns Restaurants in der Nähe anzubieten, so tätigt nicht der Sprachassistent die Entscheidung, wo wir essen werden, sondern liefert uns die benötigten Informationen, eine solche Entscheidung zu treffen.
Sind wir dadurch von den Problemen der digitalen Ethik befreit? Nein, denn es liegt an uns, dem Menschen, die Entscheidung zu treffen und die Verantwortung dafür zu tragen. Daher liegt es auch an uns, die gelieferten Daten kritisch zu hinterfragen und diese Reflexion mit in die Entscheidung einzubeziehen. Im Beispiel des Restaurants könnte es beispielsweise sein, dass uns ein bestimmtes Restaurant, obwohl es viel näher ist als die anderen, gar nicht angeboten wurde. Wir kommen also auch im Rahmen der Augmented Intelligence nicht drum herum, uns aktiv und regelmässig mit den generierten Daten und Entscheidungsvorschlägen unserer Tools auseinanderzusetzen.
Ethik muss mitprogrammiert werden
Die Herausforderung der nächsten Jahre liegt darin, diese neue Form der Zusammenarbeit in die Prozesse der Softwareentwicklung und -anwendung zu integrieren, mit allen erforderlichen Massnahmen zur Vorbeugung und Kontrolle der damit verbunden Risiken im Bereich Ethik und Diskriminierung. Es müssen entsprechende Prozesse eingeplant werden, im Projekt selber, und auch regelmässig beim Betrieb der Software. Die konkreten Fragen, die evaluiert werden müssen, sind auf Grund der vielen verschiedenen Anwendungsgebiete und auch der verschiedenen Technologien (Video, Audio, Text, usw.) und verschiedenen Arten von Problemen (Formen der Diskriminierung, unethische Entscheidungen) nicht einheitlich und müssen in jedem Projekt spezifiziert und evaluiert werden, analog zu einem traditionellen Risikomanagement.
Beim Konzept der Augmented Intelligence übernimmt der Mensch die Verantwortung und hat daher die aktive Aufgabe, die Entscheidungsvorschläge der Maschine zu reflektieren und kritisch zu hinterfragen. Nur so sind wir gewappnet für eine erfolgreiche Zusammenarbeit zwischen Menschen und Maschinen in der digitalen Gesellschaft der Zukunft.
Referenzen
- [1] Russell, S. & Norvig, P., 2010. Artificial Intelligence – a modern approach. Upper Saddle River (New Jersey): Pearson.
- [2] Kurzweil, R., 1990. The Age of Intelligent Machines. s.l.:MIT Press.
- [3] Rich, E. & Knight, K., 1991. Artificial Intelligence (Second Edition). s.l.:McGraw-Hill.
- [4] Turing, A. M., 2004. The essential turing. s.l.:Oxford University Press.
- [5] Wagner, C., Graells-Garrido, E., Garcia, D. & Menczer, F., 2016. Women through the glass ceiling: gender asymmetries in Wikipedia. EPJ Data Science, 5(1).
- [6] Jadidi, M., Strohmaier, M., Wagner, C. & Garcia, D., 2015. It’s a man’s Wikipedia? Assessing gender inequality in an online encyclopedia. s.l., s.n.
- [7] Larson, J., Mattu, S., Kirchner, L. & Angwin, J., 2016. How we analyzed the COMPAS recidivism algorithm. ProPublica, May.
- [8] Jeffrey, D., 2018. Amazon scraps secret AI recruiting tool that showed bias against women, San Fransico, CA: Reuters.
- [9] https://digitalreality.ieee.org/publications/what-is-augmented-intelligence