ChatGPT: Orakel, Doktor oder Joker? – Ethische Grenzen der Nutzung verschiedener Tools

ChatGPT ist nicht perfekt, aber es ist ein effektives Werkzeug für die Arbeit mit Informationen. Das Aufkommen von Anwendungen (Voicemod, Free AI voice cloning), die reale Fakten ersetzen und weitreichende Möglichkeiten der Manipulation eröffnen, gibt jedoch Anlass zu größerer Sorge. Wird die Niederlage einer technologiegesteuerten Gesellschaft bei ethischen Herausforderungen zu einer digitalen Diktatur führen?

ChatGPT hat bei Nutzern auf der ganzen Welt eine nahezu explosionsartige Reaktion ausgelöst. Die Argumente für eine vierte technologische Revolution scheinen nun offensichtlicher und überzeugender. Siri und Alexa, die auf künstlicher Intelligenz basierenden Benutzeranwendungen, waren in der Tat nicht effektiv genug, sondern haben eher eine Welle von Memen ausgelöst. ChatGPT ist ein linguistisches Programm mit fortgeschrittener künstlicher Intelligenz, das logische und semantisch sinnvolle Nachrichten produzieren kann. Warum die Qualitätsarbeit eines linguistischen Programms mit effizienten KI-Algorithmen «im Tech-Sektor bereits Wellen schlägt»[2]? Wie ist dieses Interesse zu erklären?

Abbildung 1: Dieses Bild wurde von DALL.E erstellt [1] .

Der Hauptgrund für diese Nachfrage ist die Zunahme der Geschwindigkeit der Datenproduktion, nicht nur in Bezug auf ChatGPT, sondern für künstliche Intelligenz im Allgemeinen. Die Menschheit hat seit Jahrhunderten Wissen produziert. Und während heute die Zeit, die die Menschheit benötigt, um das angesammelte Wissen zu verdoppeln, bereits 18 Monate beträgt, werden es in naher Zukunft nur noch 12 Stunden sein[3]. Deshalb brauchen wir einen schnellen und effizienten Weg, um Daten zu verwalten.

In diesem Zusammenhang sehen viele Forscher eine Bedrohung für die derzeitigen Suchmaschinen («Der Tod von Google»)[4]), Bildung[5],[6] und Kreativität[7],[8]. Viele Lehrer verbieten den Schülern, ChatGPT für Aufgaben zu verwenden, oder verzichten sogar auf Aufgaben wie das Schreiben von Aufsätzen und ersetzen sie durch mündliche Präsentationen. Ironischerweise ist ein Student bei einer Prüfung mit einem Aufsatz durchgefallen, der mit ChatGPT erstellt wurde[9] ein Aufsatz, der in einem KI-Ethikkurs erstellt wurde. ChatGPT kann auch sehr nützlich sein, um z. B. Texte zu überprüfen, die nicht in der Muttersprache geschrieben sind[10] oder um Code zu generieren. Die Frage ist, wie man dieses Werkzeug benutzt, wie man«die Technologie entmystifiziert und ihre Grenzen klar erklärt«[11]. Oder:«Verwenden Sie es, um Ihre Arbeit zu verbessern, nicht um sie zu erledigen«[12]. Ein kritischer und analytischer Ansatz ist notwendig, um die von ChatGPT produzierten Inhalte zu bewerten und umzusetzen.

ChatGPT hat «eine Bazillion praktischer Anwendungen, die unser Leben einfacher und effizienter machen können»[13]. Die hohe Geschwindigkeit der Aktivität kann jedoch ein «moralisches Risiko» schaffen[14]wenn die Normen und Regeln des ethischen Verhaltens nicht mehr unveränderlich und kategorisch erscheinen[15]. So können die Nutzer ChatGPT als ein Orakel wahrnehmen, das Informationen zur Lösung komplexer Fragen liefert[16]wie schreibe ich einen erfolgreichen Förderantrag, etc. Oder als eine Diagnose, die konzentriert und systematisch Informationen über die Ursachen von Symptomen liefert, was angesichts des Mangels an alternativen Datenquellen umso überzeugender ist[17]. Oder als Scherzartikel, der unethisches Verhalten provoziert[18]. Natürlich enthält das Programm selbst die notwendigen moralischen ‹Sicherungen›, so dass es sinnlos ist, ChatGPT zu fragen, wie man Steuern hinterzieht, einen Terroranschlag plant oder andere illegale Handlungen begeht.»[19]. Gleichzeitig ist es aber auch offen für manipulative oder sophistische Einflüsse. Je nach Form der Anfrage, die von den Scherzkeksen mit ihrem informellen Vokabular und Sprachstil verwendet wird, funktionieren solche «ethischen Sicherheitsvorkehrungen» nicht, und die Antworten des Programms können direkte Aufrufe zur Verletzung sozialer Normen und Gewalt enthalten[20]. Aber auch bei der normalen Nutzung von ChatGPT gibt es erhebliche ethische Risiken und Einschränkungen im Zusammenhang mit der Manipulation von Falschdarstellungen (oder sogar Witzen) und Inhalten, der Verletzung der Privatsphäre[21]verletzung des Urheberrechts, Diskriminierung, Auswirkungen auf gefährdete Personengruppen und[22], [23], [24], [25].

Die Bedeutung der Stimme

Trotz all dieser wichtigen Faktoren ist ChatGPT nicht das komplexeste System. Das Prinzip seiner Funktionsweise ist kombinatorik daten, oder «stochastische Parrotation» [26]. Aber was ist der Zweck der Herstellung von Technologien, die die authentische Realität «verdrängen» können? Zum Beispiel Voicemod[27]oder die Free AI-Technologie zum Klonen von Stimmen[28]. Solche Programme erzeugen einen neuen Simulator der «vierten Zeit»[29] in der Terminologie von J. Baudrillard. Erinnern wir uns, dass der Autor zwischen drei Arten von Simulakren unterscheidet: Fälschung, Massenproduktion und Simulation (Propaganda). Die Simulakren dieser Ebenen zeichnen sich durch einen grundsätzlichen Realitätsbezug und die Fähigkeit aus, die Authentizität oder Künstlichkeit (je nach Kontext – Falschheit) der Interpretation einer Aussage oder Tatsache zu finden und zu rechtfertigen. Die vierte Ebene der Simulakren transformiert das reale Leben.

Seit der Antike übernimmt die schallende Stimme des Menschen die Verantwortung für den Wahrheitsgehalt einer Behauptung. Oder das stoische «Lekton», also die klingende Stimme, die Ordnung und Regelmäßigkeit in das Chaos des Wandels bringt. Die heutigen Technologien sind nicht nur in der Lage, die menschliche Stimme zu anonymisieren, sondern auch Worte und Taten zu beweisen, die die Person nicht getan hat. Dieses Instrument kann direkt zur Durchführung einer Vielzahl von Manipulationen auf politischer, öffentlicher und persönlicher Ebene eingesetzt werden. Und im Rahmen des Fernunterrichts stellt es die Legitimität der mündlichen Antwort eines Studenten in einer Prüfung in Frage.

Es besteht eine direkte Wechselbeziehung zwischen moralischen Normen und der liberalen Gesellschaftsordnung: Die Zivilgesellschaft wird keine Diktatur dulden, wenn das Niveau der ethischen Kultur unzureichend ist, und wenn die internen Regulierungsmechanismen nicht wirksam genug sind, sind strenge Gesetze erforderlich. «Big Brother» beobachtet Sie….. Bald…


Referenzen

[1] «DALL-E 2 sind von OpenAI entwickelte Deep-Learning-Modelle, die digitale Bilder aus natürlichsprachlichen Beschreibungen, sogenannten «Prompts»(https://en.wikipedia.org/wiki/DALL-E), generieren und dabei Schlüsselwörter verwenden, um das Bild zu erzeugen: Kommunikation, Simulacra, ChatGPT, Realität, Fiktionen.

[2] https://www.theweek.co.uk/news/technology/958787/chat-gpt-generative-ai-and-the-future-of-creative-work

[3] Jurkiewicz C. L., (2018) Big Data, Big Concerns: ethics in the digital age. Public Integrity. Vol. 20, Issue sup1: International Colloquium on Ethical Leadership: Past, Present, and Future of Ethics Research. PP. S46-S59, https://doi.org/10.1080/10999922.2018.1448218

[4] https://www.the-sun.com/tech/7242493/chatgpt-death-of-google-ai-analyst/

[5] https://blogs.iadb.org/educacion/en/chatgpt-education/

[6] https://www.grid.news/story/technology/2023/02/21/is-chatgpt-the-future-of-cheating-or-the-future-of-teaching/

[7] h ttps://creative.salon/articles/features/qotw-chatgpt-creative-tool-threat-to-creativity

[8] https://www.vanityfair.com/news/2022/12/chatgpt-question-creative-human-robotos

[9] https://gizmodo.com/ai-chatgpt-ethics-class-essay-cheating-bing-google-bard-1850129519

[10] https://www.nytimes.com/2022/12/21/technology/personaltech/how-to-use-chatgpt-ethically.html

[11] https://www.scu.edu/ethics-spotlight/generative-ai-ethics/chatgpt-and-the-ethics-of-deployment-and-disclosure/

[12] https://www.nytimes.com/2022/12/21/technology/personaltech/how-to-use-chatgpt-ethically.html

[13] https://medium.com/swlh/7-ways-to-use-chat-gpt-ethically-in-your-day-to-day-9b9729c7ba5b

[14] https://theconversation.com/chatgpt-dall-e-2-and-the-collapse-of-the-creative-process-196461

[15] https://www.wsj.com/articles/is-there-anything-chatgpt-kant-do-openai-artificial-intelligence-automation-morality-immanuel-kant-philosophy-91f306ca

[16] https://theconversation.com/chatgpt-dall-e-2-and-the-collapse-of-the-creative-process-196461

[17] https://bioethicstoday.org/blog/chatgpt-ethics-temptations-of-progress/#

[18] Zhuo, T. Y., Huang, Y., Chen, Ch., Xing, Zh., (2023) Exploring AI Ethics of ChatGPT: A Diagnostic Analysis. arXiv. doi = {10.48550/ARXIV.2301.12867}

[19] https://medium.com/@adilmarcoelhodantas/ethics-in-chatgpt-and-other-ais-ee31ce8e9f09

[20] https://futurism.com/amazing-jailbreak-chatgpt

[21] https://www.latimes.com/opinion/story/2022-12-21/artificial-intelligence-artists-stability-ai-digital-images

[22] https://doi.org/10.48550/arXiv.2301.12867

[23] https://incora.software/insights/chatgpt-limitations

[24] https://dataethics.eu/testing-chatgpts-ethical-readiness/

[25] https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_DE.pdf

[26] Bender, E. M., Gebru, T., McMillan-Major, A., Shmitchell S. On the dangerousness of stochastic parrots: Können Sprachmodelle zu groß sein? ACM: Assotiaon for computing machinery. https://dl.acm.org/doi/10.1145/3442188.3445922

[27] https://www.voicemod.net/fr/

[28] chan-Nutzer klonen mit künstlicher Intelligenz ihre Stimme, um Hassrede auf Prominente zu erzeugen – The Verge

[29] «Für Baudrillard ist ein Simulakrum im Wesentlichen eine Kopie einer Kopie, d.h. eine Kopie von etwas, das selbst kein Original ist und daher eine Form der totalen Degeneration darstellt.» (https://www.oxfordreference.com/display/10.1093/oi/authority.20110803100507502;jsessionid=268D1FA98FB6D150D4F74AA315B93C2D)

Creative Commons Licence

AUTHOR: Olena Yatsenko

Olena Yatsenko ist Gastwissenschaftlerin am Labor für Virtuelle Realität und Robotik an der Berner Fachhochschule sowie Dozentin für Universitätsphilosophie an der Nationalen Pädagogischen Drahomanov Universität (Kiyv, Ukraine).

Create PDF

Ähnliche Beiträge

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert