Wahr oder falsch? Wie KI das Erkennen immer schwerer macht
Die zunehmende Verbreitung künstlicher Intelligenz und digitaler Kommunikation stellt die Menschenrechte vor neue Herausforderungen. Unterschiedliche Werte- und Rechtssysteme sowie fehlende Regulierung führen zu hohen kognitiven Anforderungen bei der Unterscheidung von Wahrheit und Unwahrheit. Eine neue Rechtsnorm, etwa das „Menschenrecht auf Wahrheit“, ist dringend erforderlich.
Junge Menschen zwischen Fakten und Fiktion
Eine von der Friedrich-Naumann-Stiftung im Jahr 2025 durchgeführte Studie (Friedrich-Naumann-Stiftung 2025), basierend auf Daten vom Ende 2024, offenbarte ein alarmierendes Wissensniveau unter jungen Menschen. So stimmten 23,6 % der nach 1980 Geborenen der Aussage zu: „Russland ist mehr an Frieden in der Ukraine interessiert als der Westen.“ Noch höhere Zustimmungsraten wurden unter TikTok-Nutzern (36,3 %) und Nutzern der Plattform X (40,3 %) verzeichnet. Unter der Annahme vergleichbarer kognitiver Fähigkeiten in den Gruppen ist anzunehmen, dass diese Ergebnisse massgeblich durch die Informationsvermittlung der genutzten Medien beeinflusst sind.
Die Unterscheidung von Wahrheit und Lüge ist heute zu einer kognitiven Herausforderung geworden, der das Individuum allein nicht mehr gewachsen ist.
Wertepluralismus, Rechtsordnung und die Virtualisierung sozialer Realität im 21. Jahrhundert
Konflikte entstehen durch Differenzen zwischen ethischen Wertesystemen, die von kulturellen Gruppen geprägt und von Individuen internalisiert werden (DaDeppo, 2015). Verschiedene Klassifikationen, etwa Schelers fünf Wertstufen (1921/2007) oder Rokeachs 36 Werte (1973), verdeutlichen die Vielfalt dieser Systeme. Das Recht fungiert als institutionalisierte Auslegung von Ethik und erlaubt es dem Individuum, im Einklang mit der Gruppe zu leben. Abweichungen führen zu Konflikten, zunächst zwischen Individuum und Gruppe, später auch zwischen Gruppen.
Zur Minderung solcher Konflikte überführt das Recht ethische Werte in normative Systeme, gestützt auf die drei Staatsgewalten nach Montesquieu (1748): Legislative, Exekutive und Judikative. Unterschiedliche Wertesysteme und Rechtsordnungen können koexistieren, solange Gruppen ihre Autonomie wahren. Die steigende menschliche Mobilität hat jedoch normativen und kulturellen Spannungen Vorschub geleistet.
Als Antwort auf die verheerenden Folgen von Wertekonflikten, insbesondere im Zweiten Weltkrieg, verabschiedeten die Vereinten Nationen 1948 die Allgemeine Erklärung der Menschenrechte (United Nations, 2025). Die Europäische Menschenrechtskonvention (EMRK) folgte 1950 als regionales Pendant, ratifiziert von 47 Mitgliedstaaten des Europarats (Council of Europe 1950). Die Schweiz trat 1974, Polen 1993 bei, wobei letztere Vorbehalte gegenüber kollektiven Beschwerden einräumte. Erst 2020 erhielt die Europäische Union ein Mandat zur Aufnahme von Beitrittsverhandlungen zur EMRK, ein Prozess, der seit den 1970er-Jahren durch europäische Rechtsprechung vorbereitet wurde (Jacqué, 2016; 2025).
Neben dem Recht trägt auch die Kommunikation zur Vermittlung von Wertekonflikten bei. Bis zur Erfindung des Telefons 1876 war Informationsaustausch limitiert (Astinus, 2015). Heute nutzen über 90 % der Bevölkerung in der Schweiz und über 75 % in Polen Smartphones, die vielfältige, oft nonverbale und symbolische Inhalte übertragen. Dadurch sind Individuen permanent Botschaften fremder Wertesysteme ausgesetzt, was kulturelle Spannungen, Desinformation und normative Inkohärenz verstärkt.
Eine moderne Herausforderung ist die Virtualisierung von Individuen und Gruppen durch Technologien wie künstliche Intelligenz. Die Erkennung falscher, oft manipulativer Informationen wird zunehmend schwieriger, was kognitive Unsicherheit erzeugt und die Fähigkeit beeinträchtigt, im Einklang mit dem eigenen Wertesystem zu leben. Dies schwächt individuelle Autonomie, psychisches Wohlbefinden sowie gesellschaftliches Vertrauen und die Kohärenz demokratischer Gemeinschaften.
Zeitgenössische staatliche Massnahmen zur Informationskontrolle
Der elektronische Informationsaustausch unterliegt seit über zwei Jahrzehnten in den meisten Ländern der Welt verschiedenen Formen der Überwachung. Grundlage traditioneller Kontrollmechanismen sind Filter, die auf Schlüsselwörtern basieren und potenziell unerwünschte Inhalte identifizieren sollen.
Im Zeitalter von mithilfe künstlicher Intelligenz generierten Mitteilungen erweisen sich diese Standardüberwachungsmethoden jedoch als unzureichend. Von fortgeschrittenen Sprachmodellen erstellte Inhalte können bewusst erkennbare Schlüsselwörter vermeiden, gleichzeitig aber versteckte Bedeutungen oder manipulative Narrative vermitteln. Infolgedessen entziehen sich moderne Kommunikationssysteme zunehmend der bestehenden Kontrolle.
Pionier in der gesetzlichen Regulierung von künstlicher Intelligenz sind China, die 2017 mit der Entwicklung entsprechender Rechtsrahmen begannen und deren erste Phase 2020 abgeschlossen wurde. Dort liegt ein besonderer Fokus auf ethischen Aspekten und der Transparenz von Algorithmen. Eine der zentralen gesetzlichen Anforderungen ist die Pflicht, KI-generierte Inhalte als künstlich zu kennzeichnen, wobei Verstösse gegen diese Vorschriften bisher mit vergleichsweise niedrigen Strafen, einem Lizenzentzug und Aufnahme auf eine schwarze Liste belegt werden (Deng, 2025).
Regulierung künstlicher Intelligenz in den Vereinigten Staaten
Der Mangel an Kohärenz in der US-amerikanischen Präsidentschaftspolitik erschwert die Schaffung stabiler und langfristiger Rechtsrahmen für künstliche Intelligenz. Obwohl der US-Kongress seit 2013 an einem umfassenden Gesetz zur Regulierung dieses Bereichs arbeitet, wurde bislang kein einheitliches Bundesgesetz verabschiedet.
Zwischenzeitlich erliess Präsident Joe Biden im Jahr 2023 eine vergleichsweise restriktive Executive Order, die unter anderem die Pflicht zur Risikobewertung von KI-Systemen sowie Empfehlungen zur Transparenz und zum Datenschutz beinhaltete (Biden, J.R., 2023). Im Januar 2025 jedoch lockerte sein Nachfolger, Präsident Donald Trump, diese Regelungen erheblich durch eine neue Executive Order (Trump, 2025).
Mangels eines einheitlichen bundesweiten Rahmens haben einige Bundesstaaten – darunter Kalifornien, New York und Illinois – eigene gesetzgeberische Initiativen ergriffen, um den Einsatz künstlicher Intelligenz in bestimmten Bereichen wie Beschäftigung, Bildung oder Werbung zu regulieren.
Allerdings enthält keiner der geltenden Rechtsakte – weder auf Bundesebene noch auf Ebene der Bundesstaaten – präzise definierte strafrechtliche Sanktionen für Gesetzesverstösse. Infolgedessen bleibt die Durchsetzung des Rechts in diesem Bereich von individuellen gerichtlichen Beschwerden und der subjektiven Auslegung durch Richter abhängig (AI Watch, 2025).
AI Act – die europäische Antwort auf die Herausforderungen der Künstlichen Intelligenz
Im Jahr 2024 haben das Europäische Parlament und der Rat der Europäischen Union den AI Act verabschiedet – einen umfassenden Rechtsrahmen zur Regulierung der Entwicklung, Implementierung und Nutzung von KI-Systemen während ihres gesamten Lebenszyklus (PE i RUE, 2024). Hauptziel des Gesetzes ist die Harmonisierung der Vorschriften in den EU-Mitgliedstaaten bei gleichzeitiger Gewährleistung des Schutzes der Grundrechte der Bürger.
Der AI Act führt eine Klassifikation von KI-Systemen nach Risikostufen ein. Für Systeme, die als Hochrisiko eingestuft werden, sind unter anderem folgende Anforderungen vorgesehen:
– strenge Massnahmen zur Sicherstellung der Transparenz der Funktionsweise,
– Verpflichtung zur Bewertung der Auswirkungen auf Grundrechte,
– Dokumentation der Rechtskonformität.
An der Ausarbeitung des Gesetzes beteiligten sich auch Vertreter von Nicht-EU-Staaten – darunter die USA, Kanada und Mexiko – was die Ausgestaltung einiger Regelungen beeinflusste. Insbesondere wurde auf die Anwendung bestimmter Vorschriften auf private Akteure und Massnahmen im Bereich der nationalen Sicherheit verzichtet. Diese Ausnahmen sind umstritten, da sie zu Abweichungen von den geltenden Menschenrechtsstandards führen können. Besonders problematisch ist das Fehlen klarer Vorschriften zur Verantwortlichkeit für durch KI generierte Inhalte.
Um eine wirksame Durchsetzung der Vorschriften zu gewährleisten, muss jedes Unternehmen, das in der EU ein KI-System anbietet, eine natürliche oder juristische Person mit Sitz oder Wohnsitz in der Union benennen, die für die Zusammenarbeit mit den Aufsichtsbehörden verantwortlich ist. Die Kontrolle der Einhaltung des AI Act obliegt den Marktaufsichtsbehörden der Mitgliedstaaten.
Artikel 99 sieht hohe Sanktionen bei Verstössen vor:
– bis zu 35 Millionen Euro,
– oder bis zu 7 % des weltweiten Jahresumsatzes des Unternehmens – je nachdem, welcher Wert höher ist.
Im Februar 2025 ratifizierte der Bundesrat den AI Act. In den folgenden zwei Jahren ist eine Anpassung des nationalen Rechts an die europäischen Regelungen geplant (UVEK 2025).
Vergleichstabelle der Regulierung von Künstlicher Intelligenz
Vergleichstabelle der Regulierung von Künstlicher Intelligenz in drei wichtigen Jurisdiktionen: Europäische Union (AI Act), China und die Vereinigten Staaten (Stand 2025). Die Tabelle enthält fünf zentrale Bewertungskriterien.
| Kriterium | Europäische Union (AI Act) | China | USA |
| Klassifizierung des Risikos von KI-Systemen | Ja – vier Stufen: unzulässig, hoch, eingeschränkt, niedrig | Ja – branchen- und funktionsbasierte Klassifizierung | Keine landesweite Klassifizierung – abhängig vom Bundesstaat oder der Behörde |
| Kennzeichnungspflicht für KI-Inhalte | Ja – Pflicht für Deepfakes, synthetische Inhalte und Chatbots | Ja – klare Kennzeichnungspflicht für KI-generierte Inhalte | Nein – keine allgemeine Kennzeichnungspflicht |
| Sanktionen bei Verstössen | Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist | Relativ niedrige Bussgelder, Lizenzentzug und Aufnahme auf eine schwarze Liste, durch lokale Aufsichtsbehörden durchgesetzt | Keine festgelegten Sanktionen – Durchsetzung über Zivilklagen |
| Anwendungsbereich | Gilt für alle KI-Systeme, die in der EU angeboten werden | Hauptsächlich nationale Tätigkeiten und chinesische Unternehmen im Ausland | Fragmentiert – abhängig von bundesstaatlichen und branchenspezifischen Regelungen |
| Durchsetzung und Aufsicht | Marktaufsichtsbehörden in den Mitgliedstaaten der EU | Staatliche Regulierungsbehörden, starke zentrale Kontrolle | Kein zentrales Organ – Durchsetzung verteilt oder gerichtlich |
Aus der Tabelle geht hervor:
- Die EU hat den umfassendsten und systematischsten Ansatz verabschiedet, allerdings mit Ausnahmen bezüglich der Sicherheit und für Unternehmen ausserhalb der EU.
- China setzt auf zentrale Steuerung, Ethik und Kennzeichnung von Inhalten, jedoch sind die Sanktionen moderat und die Durchsetzung selektiv.
- Die USA verfügen weiterhin über keine einheitlichen bundesweiten Regelungen, und die Aufsicht über KI basiert auf Dezentralisierung und gerichtlichen Mechanismen, was die Schutzwirkung schwächt.
Schlussfolgerungen
Das Gefühl von Glück und Lebenszufriedenheit hat einen direkten Einfluss auf den wirtschaftlichen Erfolg einer Gemeinschaft (Proto und Rustichini, 2013). Deshalb sollten soziale Gruppen – ähnlich wie sie ihre Mitglieder vor bewaffneter Aggression schützen – diese auch vor informationeller Unsicherheit schützen.
In diesem Zusammenhang haben theoretisch Nutzer chinesischer Medien bessere Chancen, Wahrheit von Falschheit zu unterscheiden, da künstlich erzeugte Inhalte deutlich gekennzeichnet sein müssen. Dagegen verfügen durchschnittliche Nutzer in Europa, den USA und Kanada nur über begrenzte Unterstützung im Umgang mit Desinformation – deren Erkennung und Anfechtung ist meist erst auf dem Rechtsweg möglich, was bedeutet, dass ein sofortiger Schutz fehlt.
Der einzig realistische Handlungsansatz scheint die Ergänzung des Protokolls zur Europäischen Menschenrechtskonvention um einen neuen Artikel 7 zu sein: Das Menschenrecht auf Wahrheit.
Auf eine ähnliche Lösung im Rahmen der UN-Allgemeinen Erklärung der Menschenrechte (Artikel 31?) werden wir vermutlich noch mehrere Jahre warten müssen…
Der vorliegende Text ist eine verschriftlichte Fassung eines Vortrags, den der Autor auf der XVII. International Scientific Conference on Human Rights im polnischen Parlament gehalten hat. Die Veranstaltung fand vom 31. März bis 1. April 2025 in Warschau unter der Schirmherrschaft des Präsidenten des Europarats, Alain Berset, statt.
Alle Referenzen:
Create PDF

Beiträge als RSS
Das sind sehr wichtige und nützliche Informationen und Überlegungen, vielen Dank!
Vielen Dank, lieber Andreas, für Deine geschätzte Rückmeldung.
Proto und Rustichini stellen tatsächlich nur eine Beziehung zwischen Zufriedenheit und wirtschaftlichem Erfolg fest, ohne deren Richtung eindeutig zu bestimmen.
Oswald, Proto und Sgroi (2009, „Happiness and Productivity“, University of Warwick & IZA) zeigen dagegen klar, dass Zufriedenheit die Produktivität erhöht – und damit den wirtschaftlichen Erfolg fördert.
Ähnliche Erkenntnisse finden sich auch in den neueren Publikationen des WEF (ab 2020).
So wird Informationssicherheit, über die Zufriedenheit des Einzelnen, letztlich zu einem Wirtschaftsfaktor in der Gesellschaft.
Im Kontext zunehmend raffinierter und gezielter Falschinformationen wird damit ein Recht auf Wahrheit zu einer grundlegenden Voraussetzung für eine stabile und vertrauenswürdige Informationsordnung.