Bias in KI-Schreibwerkzeugen: Was Lehrkräfte wissen müssen
Helfen oder schaden KI-Schreibprogramme der Kreativität von Lernenden? Eine Studie unter der Leitung von Prof. Dr. Thiemo Wambsganss vom Human-Centered AI-based Learning Systems (HAIS) Lab[1] der BFH-Wirtschaft hat untersucht, wie versteckte Bias (aka Verzerrung oder Vorurteile) in beliebten Künstlicher Intelligenz (KI)-Tools wie ChatGPT das Schreiben von Lernenden beeinflussen können. Dabei wird deutlich: Lehrkräfte sollten wachsam sein, denn Bias in KI kann das Lernen subtil beeinflussen. Der Artikel zeigt auf, warum ein verantwortungsvoller Einsatz von KI notwendig ist, um die Entwicklung der Lernenden zu fördern und die Vielfalt in ihren Schreibstilen zu bewahren.
Einleitung
KI-Programme werden immer häufiger in Hochschulen genutzt, besonders um Lernende beim Schreiben zu unterstützen. Tools wie ChatGPT und andere grosse Sprachmodelle (LLMs) können Lernende helfen, bessere Aufsätze zu schreiben, indem sie ihnen Feedback zu ihren Texten geben. Doch das birgt auch Risiken: Die inhärenten Vorurteile und die schwer kontrollierbare Funktionsweise solcher Programme können Schreibstile, Lernmethoden und im schlimmsten Fall sogar die Überzeugungen der Lernenden auf unerwartete und schädliche Weise beeinflussen. Unsere Forschung untersucht, wie diese Vorurteile das Schreiben von Lernende beeinflussen könnten und ob sie unbewusst übernommen werden. Ausserdem vergleichen wir das Feedback moderner KI-Tools mit älteren maschinellen Lernsystemen, um ihre Auswirkungen besser zu verstehen.
Warum sollten wir uns um Bias in KI-Modellen sorgen?
Bias ist in grossen Sprachmodellen (im englischen Large Language Models, kurz LLMs) auf Grund der Architektur unvermeidbar und kann das Lernen von Studierenden direkt beeinflussen (Baker und Hawn, 2021)[2]. Wenn ein KI-Tool je nach Geschlecht oder anderen Merkmalen unterschiedliches Feedback gibt, könnten dadurch Stereotype verstärkt werden. Manche Lernende könnten sogar davon abgehalten werden, ihren Interessen auszuleben. Zum Beispiel könnte eine KI unbeabsichtigt eine Sprache verwenden, die auf ein bestimmtes Geschlecht ausgerichtet ist. Lernende könnten diese Sprache unbewusst übernehmen und in ihren eigenen Texten verwenden (Wambsganss et al., 2023)[3]. So entsteht ein Kreislauf: voreingenommenes Feedback führt zu voreingenommenen Texten von Lernende. Dies kann Lehrkonzepte und Überzeugungen künftiger Generationen subtil, aber tiefgreifend beeinflussen.
Was wir herausfinden wollten
In unserer Studie wollten wir eine einfache, aber wichtige Frage beantworten: Verursachen KI-Schreibassistenten wie GPT-3.5 (das Sprachmodell hinter den früheren Versionen von ChatGPT) mehr oder weniger Bias (Verzerrung) in Texte von Lernenden als ältere Feedback-Tools wie bspw. solche die mit traditionellem maschinellem Lernen (ML) im Hintergrund funktionieren? Dazu haben wir vier Studien mit insgesamt 254 Lernenden durchgeführt. Die Teilnehmer hatten zwei Arten von Aufgaben: 1) das Schreiben von argumentative Aufsätze, in denen sie eine Geschäftsidee pitchen sollten, und 2) das Schreiben von Lerntagebüchern, in denen sie über ihre Lernerfahrungen reflektieren sollten.
Um Bias von Sprachmodellen zu untersuchen, war es wichtig, „Bias“ klar zu definieren, da der Begriff in der Forschung unterschiedlich verwendet wird. In unserer Studie verstehen wir Bias als algorithmische Verzerrungen, also als “Situationen, in denen ein Modell für bestimmte Gruppen deutlich bessere oder schlechtere Ergebnisse liefert” (Baker und Hawn, 2021, S. 4).
Wie wir die Studie durchgeführt haben
Wir haben die Studierenden in zwei Gruppen aufgeteilt und haben ihnen entweder a) Feedback von GPT-3.5 (basierend auf einem grossen Sprachmodell) oder b) von traditionellen ML-Modell gegeben. Beim ML-Feedback wurden grundlegende Vorschläge gemacht und Textstellen hervorgehoben, während GPT-3.5 detaillierteres und dialogorientiertes Feedback gab. Unser Ziel war es herauszufinden, ob es Unterschiede in geschlechtsspezifischem Bias gibt, sowohl im Feedback der KI selbst als auch in den fertigen Texten der Lernende.
Wir haben zwei Methoden verwendet, um Verzerrungen zu messen:
- GenBit Gender Bias Analysis[4]: Diese Methode zeigt uns, ob bestimmte Wörter häufiger mit männlichen oder weiblichen Begriffen verbunden sind. Eine höhere Punktzahl bedeutet, dass das Schreiben eher männlich assoziierte Wörter verwendet.
- WEAT Co-Occurrence Analysis[5]: Diese Methode untersucht, ob bestimmte Wörter (z. B. „Karriere“ vs. „Familie“) häufiger zusammen mit männlichen oder weiblichen Begriffen auftauchen. So können wir herausfinden, ob es Muster gibt, die Geschlechterstereotype widerspiegeln.
Was waren die Ergebnisse
Zu unserer Überraschung fanden wir keine grossen Unterschiede im geschlechtsspezifischen Bias zwischen dem Feedback von GPT-3.5 und den traditionellen ML-Modellen. Allerdings stellten wir fest, dass die Lernenden, die GPT-basiertes Feedback erhielten, dazu neigten, ähnlicherer Texte zu schreiben. Das bedeutet, dass das Feedback von GPT das Schreiben der Lernende weniger vielfältig machte, was problematisch sein kann, weil es den individuellen Ausdruck einschränken könnte.
Bei den reflektierenden Schreibaufgaben waren die Ergebnisse besonders auffällig. Das Feedback von GPT-3.5 führte oft dazu, dass die Lernenden ihre Texte sehr ähnlich formulierten. Das heisst, obwohl die meisten keine offensichtlichen geschlechtsspezifische Bias zeigten, gab es bei einigen sehr klaren Bias. Dies könnte darauf hindeuten, dass GPT-3.5-basiertes Feedback weniger abwechslungsreiches Schreiben fördert, was die Vielfalt der Gedanken der Lernenden einschränken könnte.
Was dies für Pädagogen bedeutet
Für Lehrkräfte und Pädagogen, die KI-Tools für Lernerfeedback nutzen möchten, bietet unsere Studie mindestens zwei wichtige Erkenntnisse:
- KI-Tools sind nicht perfekt: KI-Tools wie GPT-3.5 können zwar detailliertes und personalisiertes Feedback geben, aber sie können auch bestimmte Vorurteile verstärken, selbst wenn diese nicht sofort erkennbar sind. Das bedeutet, dass Lehrkräfte diese Tools vorsichtig einsetzen und sie eventuell mit menschlichem Feedback kombinieren sollten, um faire und ausgewogene Lernergebnisse zu fördern.
- Fördern Sie Vielfalt im Schreiben: Unsere Studie zeigt, dass GPT-Feedback die Vielfalt der Schreibstile der Lernenden verringern kann. Um dem entgegenzuwirken, können Lehrkräfte die Lernenden ermutigen, das Feedback der KI kritisch zu hinterfragen und darüber nachzudenken, wie sie ihre Texte individueller gestalten können. KI sollte als nützlicher Helfer angesehen werden, nicht als endgültige Autorität.
Empfehlungen für den Einsatz von AI-Schreibwerkzeugen
- Kombinieren Sie KI-Feedback mit menschlichen Einsichten: KI-Tools können grossartig sein, um auf verbesserungswürdige Bereiche hinzuweisen, aber menschliche Lehrer sind unerlässlich, um den Kontext zu liefern, die besonderen Bedürfnisse der Lernende zu verstehen und die Kreativität zu fördern.
- Bringen Sie den Lernende bei, kritische Nutzer zu sein: Die Lernenden sollten lernen, KI-Tools kritisch zu nutzen und sowohl die Vorteile als auch die Grenzen zu verstehen. Dazu gehört, dass sie erkennen, dass KI-Feedback manchmal voreingenommen sein kann und dass sie Vorschläge nicht annehmen sollten, ohne sie zu durchdenken.
Fazit
KI-Schreibassistenten wie ChatGPT sind nützliche Werkzeuge, die Lernenden beim Schreiben unterstützen können. Doch, wie unsere Studie zeigt, bringen sie auch einige Herausforderungen mit sich, vor allem in Bezug auf Voreingenommenheit und die Vielfalt der studentischen Texte. Lehrkräfte, die diese Tools einsetzen, sollten vorsichtig sein und das KI-Feedback mit menschlicher Aufsicht kombinieren, um sicherzustellen, dass alle Lernenden faire und unterstützende Hilfe erhalten. Wenn wir uns dieser möglichen Probleme bewusst sind, können wir KI als positive Unterstützung in der Bildung nutzen, die Lernenden hilft, sich weiterzuentwickeln, ohne ungewollt Vorurteile zu verstärken.
Fussnoten
[1] https://haislab.com
[2] Ryan S Baker and Aaron Hawn. 2021. Algorithmic bias in education. International Journal of Artificial Intelligence in Education, pages 1–41
[3] Thiemo Wambsganss, Xiaotian Su, Vinitra Swamy, Seyed Neshaei, Roman Rietsche, and Tanja Käser. 2023. Unraveling downstream gender bias from large language models: A study on AI educational writing assistance. In Findings of the Association for Computational Linguistics: EMNLP 2023, pages 10275-10288, Singapore. Association for Computational Linguistics
[4] Kinshuk Sengupta, Rana Maher, Declan Groves, and Chantal Olieman. 2021. Genbit: measure and mitigate gender bias in language datasets. Microsoft Journal of Applied Research, 16:63–71.
[5] Aylin Caliskan, Joanna J Bryson, and Arvind Narayanan. 2017. Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334):183–186.
Dein Kommentar
An Diskussion beteiligen?Hinterlasse uns Deinen Kommentar!