Vrai ou faux ? Comment l’intelligence artificielle rend la distinction de plus en plus difficile
La diffusion croissante de l’intelligence artificielle et de la communication numérique confronte les droits humains à de nouveaux défis. La diversité des systèmes de valeurs et de droit ainsi que l’absence de régulation créent des exigences cognitives élevées pour distinguer le vrai du faux. Une nouvelle norme juridique – telle que le « droit humain à la vérité » – s’avère aujourd’hui urgente et nécessaire.
Les jeunes face aux faits et à la fiction
Une étude menée en 2025 par la Fondation Friedrich-Naumann (Friedrich-Naumann-Stiftung 2025), à partir de données de fin 2024, a révélé un niveau de connaissance alarmant chez les jeunes générations. Ainsi, 23,6 % des personnes nées après 1980 ont approuvé l’affirmation : « La Russie est plus intéressée par la paix en Ukraine que l’Occident. » Les taux d’adhésion étaient encore plus élevés parmi les utilisateurs de TikTok (36,3 %) et ceux de la plateforme X (40,3 %). En supposant que les capacités cognitives soient comparables entre les groupes, on peut supposer que ces résultats sont fortement influencés par les médias utilisés pour s’informer.
Distinguer le vrai du faux est devenu un défi cognitif que l’individu ne peut plus relever seul.
Pluralisme des valeurs, ordre juridique et virtualisation de la réalité sociale au XXIe siècle
Les conflits émergent des divergences entre systèmes de valeurs éthiques, façonnés par les groupes culturels et intériorisés par les individus (DaDeppo, 2015). Diverses classifications, comme les cinq niveaux de valeurs de Scheler (1921/2007) ou les 36 valeurs de Rokeach (1973), illustrent cette pluralité. Le droit, en tant qu’interprétation institutionnalisée de l’éthique, permet à l’individu de vivre en harmonie avec son groupe. Les écarts entraînent des conflits, d’abord entre individu et groupe, puis entre groupes.
Pour atténuer ces tensions, le droit traduit les valeurs éthiques en normes, fondées sur les trois pouvoirs selon Montesquieu (1748) : législatif, exécutif et judiciaire. Des systèmes juridiques et de valeurs différents peuvent coexister tant que les groupes conservent leur autonomie. Cependant, la mobilité croissante des personnes tend à aacentuer les tensions normatives et culturelles.
En réponse aux conséquences dévastatrices des conflits de valeurs, notamment pendant la Seconde Guerre mondiale, les Nations Unies ont adopté en 1948 la Déclaration universelle des droits de l’homme (United Nations, 2025). La Convention européenne des droits de l’homme (CEDH) a suivi en 1950 comme pendant régional, ratifiée par 47 États membres du Conseil de l’Europe (Council of Europe 1950). La Suisse y a adhéré en 1974, la Pologne en 1993, cette dernière exprimant des réserves quant aux recours collectifs. Ce n’est qu’en 2020 que l’Union européenne a reçu le mandat d’ouvrir des négociations d’adhésion à la CEDH, un processus préparé par la jurisprudence européenne depuis les années 1970 (Jacqué, 2016 ; 2025).
Outre le droit, la communication joue un rôle central dans la transmission des conflits de valeurs. Jusqu’à l’invention du téléphone en 1876, l’échange d’informations était limité (Astinus, 2015). Aujourd’hui, plus de 90 % de la population en Suisse et plus de 75 % en Pologne utilisent des smartphones, capables de transmettre des contenus variés, souvent non verbaux ou symboliques. Ainsi, les individus sont en permanence exposés à des messages issus d’autres systèmes de valeurs, accentuant tensions culturelles, désinformation et incohérences normatives.
Un défi contemporain réside dans la virtualisation des individus et des groupes par des technologies comme l’intelligence artificielle. La détection d’informations fausses ou manipulées devient de plus en plus difficile, générant une insécurité cognitive et altérant la capacité des personnes à agir selon leur propre système de valeurs. Cela compromet l’autonomie individuelle, altère le bien-être psychologique et érode la confiance publique ainsi que la cohésion des sociétés des sociétés démocratiques.
Les politiques contemporaines de contrôle de l’information
Depuis plus de vingt ans, l’échange électronique d’informations fait l’objet de formes diverses de surveillance dans la plupart des pays. Les mécanismes traditionnels de contrôle reposent sur des filtres fondés sur des mots-clés visant à détecter des contenus indésirables.
À l’ère des messages générés par intelligence artificielle, ces méthodes standards s’avèrent insuffisantes. Les contenus produits par des modèles linguistiques avancés peuvent éviter délibérément certains mots-clés tout en transmettant des significations cachées ou des récits manipulateurs. Les systèmes de communication modernes échappent ainsi de plus en plus au contrôle établi.
La Chine fait figure de pionnière en matière de régulation juridique de l’intelligence artificielle, ayant entamé dès 2017 l’élaboration d’un cadre légal dont la première phase s’est achevée en 2020. L’accent y est mis sur les aspects éthiques ainsi sur la transparence des algorithmes. L’une des obligations centrales de cette législation consiste à identifier explicitement et à étiqueter clairement les contenus générés par l’intelligence artificielle comme étant artificiels. Les violations de ces dispositions sont, jusqu’à présent, sanctionnées de manière relativement modérée, incluant des amendes peu élevées, le retrait de licence et l’inscription sur une liste noire (Deng, 2025).
Réglementation de l’intelligence artificielle aux États-Unis
L’instabilité des politiques présidentielles américaines complique la création d’un cadre juridique cohérent et pérenne pour l’IA. Bien que le Congrès américain travaille depuis 2013 à une législation fédérale globale, aucun texte unifié n’a encore été adopté.
En 2023, le président Joe Biden a publié un décret exécutif assez strict imposant notamment l’évaluation des risques liés aux systèmes de l’intelligence artificielle, ainsi que des recommandations concernant la transparence et la protection des données (Biden, J.R., 2023). Toutefois, en janvier 2025, son successeur Donald Trump a considérablement assoupli ces règles par une nouvelle ordonnance (Trump, 2025).
Faute d’un cadre fédéral unifié, certains États fédérés – notamment la Californie, New York et l’Illinois – ont pris des initiatives législatives propres visant à encadrer l’intelligence artificielle dans des domaines spécifiques comme l’emploi, l’éducation ou la publicité.
Cependant, aucun des actes juridiques en vigueur – ni au niveau fédéral ni au niveau des États – ne prévoit de sanctions pénales définies de manière précise en cas de violation de la loi. Par conséquent, l’application du droit dans ce domaine reste tributaire de plaintes individuelles et de l’interprétation subjective et variable des juges (AI Watch, 2025).
AI Act – La réponse européenne aux défis de l’intelligence artificielle
En 2024, le Parlement européen et le Conseil de l’Union européenne ont adopté l’AI Act, un cadre juridique complet visant à réglementer le développement, la mise en œuvre et l’utilisation des systèmes de l’intelligence artificielle tout au long de leur cycle de vie (PE i RUE, 2024). L’objectif principal de ce texte est d’harmoniser les règlementations au sein des États membres de l’UE, tout en assurant la protection des droits fondamentaux des citoyens.
L’AI Act introduit une classification des systèmes de l’intelligence artificielle selon des niveaux de risque. Les systèmes considérés à haut risque doivent notamment respecter les exigences suivantes :
- Des mesures strictes assurant la transparence de leur fonctionnement,
- L’obligation d’évaluer leur impact sur les droits fondamentaux,
- Une documentation attestant de leur conformité juridique.
Des représentants de pays non-membres de l’UE – dont les États-Unis, le Canada et le Mexique – ont également participé à l’élaboration du projet de loi, influençant certaines dispositions. En particulier, il a été décidé d’écarter l’application de certaines règles aux acteurs privés ainsi qu’aux mesures dans le domaine lié à la sécurité nationale. Ces exceptions sont controversées, car elles peuvent entraîner des écarts par rapport aux normes existantes en matière de droits de l’homme. L’absence de règles claires concernant la responsabilité des contenus générés par l’intelligence artificielle est particulièrement préoccupante.
Afin de garantir l’application effective de l’AI Act, toute entreprise proposant un système d’intelligence artificielle dans l’UE doit désigner une personne physique ou morale domiciliée dans l’Union, chargée de coopérer avec les autorités de contrôle. La surveillance du respect de l’AI Act incombe aux autorités nationales chargées de la surveillance du marché.
L’article 99 prévoit des sanctions sévères en cas de non-conformité :
- Jusqu’à 35 millions d’euros,
- Ou jusqu’à 7 % du chiffre d’affaires annuel mondial de l’entreprise — selon le montant le plus élevé.
En février 2025, le Conseil fédéral suisse a ratifié l’AI Act. Une adaptation du droit national aux normes européennes est prévue dans les deux prochaines années (UVEK, 2025).
Tableau comparatif de la régulation de l’intelligence artificielle
Comparaison des cadres juridiques encadrant l’intelligence artificielle dans trois juridictions clés (UE, Chine, États-Unis – situation en 2025), selon cinq critères fondamentaux :
Critère | Union européenne (AI Act) | Chine | États-Unis |
Classification des risques liés aux systèmes d’intelligence artificielle | Oui – quatre niveaux : interdits, à haut risque, à risque limité, à faible risque | Oui – classification fondée sur les secteurs et les fonctions | Non – aucune classification nationale uniforme ; dépend des États fédérés ou des agences |
Obligation d’étiquetage des contenus générés par l’intelligence artificielle | Oui – obligation pour les deepfakes, les contenus synthétiques et les chatbots | Oui – obligation claire d’étiquetage des contenus générés par l’intelligence artificielle | Non – aucune obligation générale d’étiquetage |
Sanctions en cas de violation | Jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, selon le montant le plus élevé | Amendes relativement faibles, retrait de licence et inscription sur une liste noire, appliquées par les autorités locales de surveillance | Aucune sanction définie – application par voie de recours civil |
Champ d’application | Tous les systèmes d’intelligence artificielle proposés dans l’UE | Principalement les activités nationales et les entreprises chinoises à l’étranger | Fragmenté – dépend des réglementations des États fédérés et des secteurs concernés |
Mécanismes de surveillance et d’application | Autorités nationales de surveillance du marché dans chaque État membre | Autorités publiques centrales, contrôle étatique strict | Pas d’autorité centrale – application répartie ou par voie judiciaire |
Observations tirées du tableau
- L’Union européenne a adopté l’approche la plus systématique et la plus complète, bien que certaines exceptions subsistent, notamment dans le domaine de la sécurité ou pour les entreprises extraterritoriales.
- La Chine mise sur un contrôle centralisé, une forte attention à l’éthique et à la transparence des contenus, mais applique des sanctions modérées avec une mise en œuvre sélective.
- Les États-Unis ne disposent toujours pas d’un cadre juridique fédéral cohérent. La régulation de l’intelligence artificielle repose sur un système décentralisé et des mécanismes juridictionnels, ce qui affaiblit considérablement l’efficacité des protections offertes.
Conclusions
Le sentiment de bonheur et de satisfaction dans la vie exerce une influence directe sur le succès économique d’une société (Proto & Rustichini, 2013). C’est pourquoi les groupes sociaux devraient — tout comme ils protègent leurs membres contre l’agression physique — également les protéger contre l’insécurité informationnelle.
Dans ce contexte, les utilisateurs des médias chinois bénéficient en théorie d’un meilleur encadrement pour distinguer le vrai du faux, notamment grâce à l’obligation explicite de signaler les contenus générés par l’intelligence artificielle. En revanche, les utilisateurs moyens en Europe, aux États-Unis et au Canada ne disposent que d’un soutien limité face à la désinformation, qui n’est généralement contestable qu’a posteriori par des voies juridiques — laissant ainsi un vide en matière de protection immédiate.
La seule démarche réellement envisageable semble être la modification du Protocole à la Convention européenne des droits de l’homme par l’ajout d’un nouvel article 7 : le droit humain à la vérité.
Quant à une évolution équivalente au sein de la Déclaration universelle des droits de l’homme des Nations Unies (article 31 ?), il faudra sans doute encore attendre plusieurs années…
Le présent texte est la version écrite d’une conférence donnée par l’auteur lors de la XVIIe Conférence scientifique internationale sur les droits de l’homme, qui s’est tenue au Parlement polonais. L’événement s’est déroulé à Varsovie du 31 mars au 1er avril 2025, sous le haut patronage du président du Conseil de l’Europe, Alain Berset.
Toutes les références :

Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !