ChatGPT : un oracle, un médecin ou un farceur ? – Les limites éthiques de l’utilisation de différents outils

ChatGPT n’est pas un outil parfait, mais efficace pour travailler avec des informations. Mais un degré d’inquiétude plus élevé est justifié par l’émergence d’applications (Voicemod, Free AI voice cloning) qui remplacent les faits réels et ouvrent de vastes possibilités de manipulation. La défaite de la société enracinée dans la technologie face aux défis éthiques conduira-t-elle à une dictature numérique ?

ChatGPT a déclenché une réaction presque explosive de la part des utilisateurs* du monde entier. Les déclarations sur la quatrième révolution technologique semblent désormais plus évidentes et plus convaincantes. Siri et Alexa, les applications utilisateur pilotées par l’IA, n’ont en effet pas été assez efficaces, mais ont plutôt déclenché une vague de mèmes. ChatGPT est un programme linguistique de haut niveau d’IA, capable de produire des messages logiques et sémantiquement pertinents. Pourquoi le travail de haute qualité d’un programme linguistique avec des algorithmes d’IA efficaces « fait déjà des vagues dans le secteur technologique »[2]? Comment expliquer cet intérêt ?

Illustration 1 : Cette image a étécréée par DALL.E[1] .

La raison principale d’une telle demande est l’augmentation du taux de production de données, non seulement en ce qui concerne ChatGPT, mais aussi pour l’IA en général. L’humanité produit des connaissances depuis des siècles. Et si aujourd’hui le temps nécessaire pour doubler les connaissances accumulées par l’humanité est déjà de 18 mois, il sera de 12 heures dans un futur proche[3]. C’est pourquoi nous avons besoin d’un outil rapide et efficace pour la gestion des données.

Dans ce contexte, de nombreux chercheurs voient des risques pour les moteurs de recherche actuels (« la mort de Google »)[4]), pour l’éducation[5],[6] et la créativité[7],[8]. De nombreux enseignants interdisent aux élèves d’utiliser ChatGPT lors de la préparation des devoirs ou suppriment même des tâches telles que la rédaction d’une dissertation pour la remplacer par une présentation orale. Un exemple ironique est celui d’un élève qui a passé un examen avec une dissertation générée par ChatGPT[9] générée dans le cours « Éthique de l’IA ». Mais ChatGPT peut aussi être très utile, par exemple pour vérifier des textes qui n’ont pas été écrits dans sa langue maternelle[10] ou pour générer du code. La question est de savoir comment utiliser cet outil, comment« démystifier la technologie et expliquer clairement ses limites« [11]. Ou encore :« Utilisez-la pour améliorer votre travail, pas pour le faire« [12]. Une approche critique et analytique est nécessaire pour évaluer et utiliser le contenu produit par ChatGPT.

ChatGPT a « un billion d’applications pratiques qui peuvent rendre notre vie plus simple et plus efficace »[13]. Mais avec la rapidité des actions, un « vertige moral » peut se produire[14]lorsque les normes et les règles du comportement éthique ne semblent plus immuables et catégoriques[15]. Ainsi, ChatGPT peut être perçu par les utilisateurs comme un oracle qui renseigne dans la résolution de questions complexes : Comment réformer le système éducatif, quel est l’avenir des industries créatives ?[16]comment rédiger une demande de subvention réussie, etc. Ou comme un diagnostiqueur qui donne des informations concentrées et systématiques sur les causes des symptômes, ce qui est encore plus convaincant compte tenu du manque de transmissions de données alternatives[17]. Ou comme joker qui provoque des comportements non éthiques[18]. Bien sûr, le programme lui-même contient les « sécurités » morales manifestement nécessaires, de sorte qu’il est inutile de demander à ChatGPT comment frauder le fisc, planifier une attaque terroriste ou commettre d’autres actes illégaux[19]. Mais en même temps, le programme est ouvert aux influences manipulatrices ou sophistiques. Selon la forme de la demande, utilisée par des plaisantins utilisant un vocabulaire et un style de langage informels, de telles « protections éthiques » échouent et les réponses du programme peuvent contenir des appels directs à la rupture des normes sociales et à la violence[20]. Mais même dans le cadre d’une utilisation normale de ChatGPT, il existe des risques et des restrictions éthiques considérables, liés à des données erronées (voire des blagues) et à la manipulation du contenu, à des atteintes à la vie privée[21]des violations du droit d’auteur, de la discrimination, des effets sur des groupes de personnes vulnérables[22], [23], [24], [25].

L’importance de la voix

Mais malgré tous ces facteurs importants, le ChatGPT n’est pas le plus grand défi. Le principe de ses opérations est une combinatoire avec des données, ou « réplique stochastique »[26]. Mais quel est l’objectif de la production de technologies qui peuvent « supplanter » la réalité authentique ? Par exemple, Voicemod[27]ou la technologie Free AI de clonage de voix[28]. De tels programmes produisent un nouveau « quatrième ordre » de simulacres[29] selon la terminologie de J. Baudrillard. Rappelons que l’auteur distingue trois types de simulacres : La contrefaçon, la production de masse et la simulation (propagande). Ce qui caractérise les simulacres de ces niveaux, c’est un rapport fondamental à la réalité et la capacité de trouver et de justifier l’authenticité ou l’artificialité (selon le contexte – la fausseté) d’une déclaration ou d’une interprétation des faits. Le quatrième niveau de simulacres transforme la vie réelle.

Depuis l’Antiquité, la voix retentissante d’une personne est un acte d’acceptation de la responsabilité de la vérité de l’énoncé. Ou le « lekton » stoïcien, qui signifie une voix retentissante qui apporte ordre et régularité dans le chaos du changement. Les technologies actuelles sont capables non seulement d’anonymiser la voix d’une personne, mais aussi de prouver des paroles et des actes qu’une personne n’a pas commis. Cet outil peut être directement utilisé pour diverses manipulations au niveau politique, public et personnel. Et dans le contexte de l’enseignement à distance, il remet en question la légitimité de la réponse orale de l’étudiant lors de l’examen.

Il existe une dépendance directe entre les normes morales et l’ordre social libéral : la société civile ne tolère pas la dictature si elle dispose d’un niveau suffisant de culture éthique, et si les mécanismes de régulation internes ne sont pas suffisamment efficaces, des lois strictes sont nécessaires. le « grand frère » te surveille… Bientôt.


Références

[1] « DALL-E 2 » sont des modèles d’apprentissage profond développés par OpenAI pour générer des images numériques à partir de descriptions en langage naturel, appelées « prompts »(https://en.wikipedia.org/wiki/DALL-E), en utilisant des mots-clés pour créer une image : communication, simulacre, ChatGPT, réalité, fictions.

[2] https://www.theweek.co.uk/news/technology/958787/chat-gpt-generative-ai-and-the-future-of-creative-work

[3] Jurkiewicz C. L., (2018) Big Data, Big Concerns : Ethics in the Digital Age. Intégrité publique. Vol.20, Issue sup1 : Colloque international sur le leadership éthique : passé, présent et avenir de la recherche en éthique. P. S46-S59, https://doi.org/10.1080/10999922.2018.1448218

[4] https://www.the-sun.com/tech/7242493/chatgpt-death-of-google-ai-analyst/

[5] https://blogs.iadb.org/educacion/en/chatgpt-education/

[6] https://www.grid.news/story/technology/2023/02/21/is-chatgpt-the-future-of-cheating-or-the-future-of-teaching/

[7] h ttps://creative.salon/articles/features/qotw-chatgpt-creative-tool-threat-to-creativity

[8] https://www.vanityfair.com/news/2022/12/chatgpt-question-creative-human-robotos

[9] https://gizmodo.com/ai-chatgpt-ethics-class-essay-cheating-bing-google-bard-1850129519

[10] https://www.nytimes.com/2022/12/21/technology/personaltech/how-to-use-chatgpt-ethically.html

[11] https://www.scu.edu/ethics-spotlight/generative-ai-ethics/chatgpt-and-the-ethics-of-deployment-and-disclosure/

[12] https://www.nytimes.com/2022/12/21/technology/personaltech/how-to-use-chatgpt-ethically.html

[13] https://medium.com/swlh/7-ways-to-use-chat-gpt-ethically-in-your-day-to-day-9b9729c7ba5b

[14] https://theconversation.com/chatgpt-dall-e-2-and-the-collapse-of-the-creative-process-196461

[15] https://www.wsj.com/articles/is-there-anything-chatgpt-kant-do-openai-artificial-intelligence-automation-morality-immanuel-kant-philosophy-91f306ca

[16] https://theconversation.com/chatgpt-dall-e-2-and-the-collapse-of-the-creative-process-196461

[17] https://bioethicstoday.org/blog/chatgpt-ethics-temptations-of-progress/#

[18] Zhuo, T. Y., Huang, Y., Chen, Ch., Xing, Zh., (2023) Exploring AI Ethics of ChatGPT : A Diagnostic Analysis. arXiv. doi = {10.48550/ARXIV.2301.12867}

[19] https://medium.com/@adilmarcoelhodantas/ethics-in-chatgpt-and-other-ais-ee31ce8e9f09

[20] https://futurism.com/amazing-jailbreak-chatgpt

[21] https://www.latimes.com/opinion/story/2022-12-21/artificial-intelligence-artists-stability-ai-digital-images

[22] https://doi.org/10.48550/arXiv.2301.12867

[23] https://incora.software/insights/chatgpt-limitations

[24] https://dataethics.eu/testing-chatgpts-ethical-readiness/

[25] https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_FR.pdf

[26] Bender, E. M., Gebru, T., McMillan-Major, A., Shmitchell S. On the Dangers of Stochastic Parrots : Les modèles linguistiques peuvent-ils être trop grands ? ACM : Assotiaon for computing machinery. https://dl.acm.org/doi/10.1145/3442188.3445922

[27] https://www.voicemod.net/fr/

[28] les utilisateurs de chan utilisent un outil de clonage vocal par IA pour générer des discours haineux sur des célébrités – The Verge

[29] « Pour Baudrillard, le simulacre est essentiellement la copie d’une copie, c’est-à-dire la copie de quelque chose qui n’est pas lui-même un original et qui constitue donc une forme totalement dégénérée ». (https://www.oxfordreference.com/display/10.1093/oi/authority.20110803100507502;jsessionid=268D1FA98FB6D150D4F74AA315B93C2D)

Creative Commons Licence

AUTHOR: Olena Yatsenko

Olena Yatsenko est chercheuse invitée au laboratoire de réalité virtuelle et de robotique de la Haute école spécialisée bernoise et enseignante en philosophie universitaire à l'Université pédagogique nationale Drahomanov (Kiyv, Ukraine).

Create PDF

Posts associés

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *