Mehr als ein Chatbot – wie KI verantwortungsvoll im Unternehmen eingesetzt werden

ChatGPT, Midjourney & Co. haben gezeigt, wieviel Potenzial Software mit maschinellem Lernen hat. Doch um diesen Wandel verantwortungsvoll zu gestalten, müssen auch die Risiken dieser Technologien beachtet werden. Unsere Forscherin Mascha Kurpicz-Briki untersucht, wie KI verantwortungsvoll in Unternehmen eingesetzt werden kann.

Hinter dem Begriff künstliche Intelligenz verbirgt sich heutzutage meistens das sogenannte maschinelle Lernen. Eine Software lernt basierend auf vielen Beispielen, und ist dann beispielsweise in der Lage, neue Daten einer Kategorie zuzuordnen. Stellen wir uns vor, dass wir einer Software eine grosse Menge von Hundebildern und Katzenbildern zu Verfügung stellen und jedes Bild einen Hinweis enthält, ob darauf ein Hund oder eine Katze abgebildet ist. Mit einer grossen Menge solcher Beispiele kann ein Modell trainiert werden, welches für ein neues Bild (das noch nicht in den Trainingsdaten vorhanden war) eine Vorhersage machen kann, ob darauf ein Hund oder eine Katze abgebildet ist. Wenn im vorherigen Satz die Rede von einer Vorhersage ist, bedeutet das, dass das System auch einmal eine falsche Zuteilung machen kann. Und dies ist ein ganz wichtiger Punkt, wenn wir Anwendungsfälle für diese Art von Systemen entwickeln.

Maschinelles Lernen kann für ganz unterschiedliche Aufgaben eingesetzt werden. Einerseits, wie oben beschrieben, zur Unterscheidung zwischen zwei oder mehr Gruppen (diese Art von Aufgabe wird auch Klassifikation genannt). Andererseits können basierend auf Daten aus der Vergangenheit Vorhersagen gemacht werden. Ein weiteres Beispiel ist die Generierung von Text mittels Sprachmodellen, sei es zur Vervollständigung eines Satzes oder als Antwort auf eine Anfrage in einer Chatbot-Anwendung.

Von Vorhersagen und fehlender Erklärbarkeit

Nicht alle Anwendungsfälle können mit den Limitationen dieser Art von Software umgehen. Wenn eine Vorhersage auch einmal falsch sein kann, kann dies je nachdem, wie damit umgegangen wird, weitreichende Folgen haben. In anderen Fällen ist es kein Problem, und auch bei einer richtigen Klassifikation von 90% kann das System einen grossen Nutzen bringen.

Eine besondere Herausforderung liegt auch darin, zu erklären, wie ein Vorschlag des Systems zustande kam. Auf Grund der Komplexität der Modelle, welche den neusten Fortschritt ermöglicht haben, ist es selbst für KI-Expertinnen und Experten sehr schwierig bis hin unmöglich, zu sagen, wieso ein bestimmter Satz generiert wurde. Neben den technischen Methoden, die schwer erklärbar sind, kommt dann bei kommerziellen Produkten oft auch noch eine fehlende Transparenz über das System hinzu. Oftmals ist nicht im Detail bekannt, welche Trainingsdaten oder Methoden verwendet werden in einem System.

Bias und Stereotypen

Modelle basierend auf maschinellem Lernen brauchen für das Training eine grosse Menge an Daten. Bei Sprachmodellen, welche hinter Anwendungen wie ChatGPT stecken, werden entsprechend grosse Mengen von Texten benötigt. Solche Modelle basieren daher auf Texten, die unsere Gesellschaft über viele Jahre produziert hat. Auf Grund der grossen Menge ist es nicht mehr möglich, alle Texte durch Menschen überprüfen zu lassen. Neben den gewünschten Beziehungen zwischen Wörtern führt dies dazu, dass auch die Stereotypen der Gesellschaft abgebildet werden. Das hat Auswirkungen auf die generierten Texte, und viele weitere Anwendungen, welche solche Sprachmodelle nutzen. Gängige Übersetzungssoftware übersetzt den Satz «The professor goes to the park» standardmässig mit «der Professor geht in den Park», obwohl «die Professorin» auch eine mögliche Alternative wäre. Anders sieht es aus, wenn von «the nurse» (dt: der Krankenpfleger/die Krankenpflegerin) die Rede ist, und die weibliche Übersetzung verwendet wird.

Rollenbilder auf Grund des Geschlechts sind nur ein Beispiel. Stereotypen können ganz unterschiedliche Dimensionen wie Nationalität, Herkunft, Aussehen oder Alter betreffen. Es ist davon auszugehen, dass alle diese Stereotypen unserer Gesellschaft sich in der Technologie widerspiegeln oder sogar dadurch verstärkt werden.

Anwendungsfälle und menschliche Interpretation

Neben den bereits erwähnten Limitationen gibt es noch weitere Herausforderungen mit der neuen Software. Oftmals werden die Produkte über Browseranwendungen angeboten, und erfordern eine Übertragung der eingegebenen Daten an die entsprechende Firma. Das kann bei Personendaten oder firmeninternen Daten heikel sein und erfordert entsprechende Abklärungen.

Auf Grund der Art und Weise, wie Sprachmodelle funktionieren, können auch einmal falsche Informationen in den Texten generiert werden. Dies kann einerseits daran liegen, dass bereits falsche Informationen in den Trainingsdaten vorlagen. Oftmals kommt es jedoch vor, dass die Angaben falsch sind, ohne dass es dafür eine Erklärung in den Trainingsdaten gibt. Dies kann unter anderem im Falle von politischen Ereignissen [1] sehr problematisch sein. Während Fake News ein bekanntes Problem des Internets an sich sind, ist es besonders problematisch, wenn diese in eloquent formulierter Sprache und ohne Referenzen daherkommen, wie es bei vieler aktueller KI-Tools der Fall ist. Es besteht das Risiko, dass wir Menschen bei einer menschenähnlichen Unterhaltung eine Kommunikationsabsicht annehmen, die so aber nicht vorhanden sein kann bei automatisch generierten Texten [2].

KI verantwortungsvoll einsetzen

Trotz all dieser Limitationen bietet KI-Software sehr viel Potenzial, wenn sie verantwortungsvoll eingesetzt wird. Es muss eruiert werden, ob der geplante Anwendungsfall geeignet ist, und wie der Mensch im Zentrum der Anwendung bleiben kann. Der Mensch trägt die Verantwortung, die KI-Software kann als Werkzeug dabei unterstützen. Oftmals wird daher auch von Augmented Intelligence [3] statt Artificial Intelligence gesprochen: die menschliche Intelligenz erweitern, statt den Menschen zu ersetzen.


Referenzen

[1] https://www.srf.ch/news/schweiz/wahlen-2023/wahlen-2023-ki-gibt-falschinformationen-zu-schweizer-wahlen

[2] siehe z.B. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the dangers of stochastic parrots: Can language models be too big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

[3] Siehe z.B. Swiss Center for Augmented Intelligence https://swisscai.ch/


Dem Thema dieses Artikels widmet sich auch das kürzlich erschienene Buch More than a Chatbot: Language Models Demystified

https://link.springer.com/book/10.1007/978-3-031-37690-0

Creative Commons Licence

AUTHOR: Mascha Kurpicz-Briki

Dr. Mascha Kurpicz-Briki ist Professorin für Data Engineering am Institute for Data Applications and Security IDAS der Berner Fachhochschule, und stellvertretende Leiterin der Forschungsgruppe Applied Machine Intelligence. Sie beschäftigt sich in ihrer Forschung unter anderem mit dem Thema Fairness und der Digitalisierung von sozialen und gesellschaftlichen Herausforderungen.

Create PDF

Ähnliche Beiträge

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert