« Nous devons éliminer les biais des modèles linguistiques » – un épisode de podcast sur l’IA dans l’administration et la justice

Chat GPT est actuellement sur toutes les lèvres. Le programme entraîné peut en fait bavarder sur n’importe quel sujet et mener des conversations qui ont l’air humaines. Mais ChatGPT commet aussi des erreurs. Dans le dernier épisode du podcast « Let’s Talk Business », l’experte en IA Mascha Kurpicz-Briki et le chercheur en données Matthias Stürmer parlent de la manière d’éviter les biais, de la raison pour laquelle le terme d’intelligence augmentée convient mieux que l’IA et de la manière dont elle peut être utilisée dans la justice et l’administration. Cliquez ici pour accéder à l’épisode et à une version écrite abrégée.

Aujourd’hui, nous parlons d’un sujet qui fait fureur depuis le début de l’année. ChatGPT. Le modèle linguistique entraîné peut bavarder sur n’importe quel sujet et mener des conversations qui semblent plutôt humaines. Mais ChatGPT commet aussi des erreurs factuelles et un autre problème est celui des biais, c’est-à-dire des préjugés. Tu as étudié dans le cadre d’un projet de recherche le fait que l’intelligence artificielle est discriminatoire. Comment cela se manifeste-t-il ?

Prof. Dr Mascha Kurpicz-Briki est directrice adjointe de l’Applied Machine Intelligence Research Group au département Technique et informatique de la HESB.

Mascha Kurpicz-Briki : Les biais sont un gros problème. Il existe déjà des biais dans les données d’entraînement sur lesquelles de tels systèmes ont été formés. Ce sont des données que notre société a produites. Cela signifie que les données contiennent toutes les discriminations et les stéréotypes que nous avons dans la société. Lorsque nous entraînons l’IA sur ces données, ces stéréotypes sont automatiquement présents. C’est un problème général et également dans le domaine du traitement automatique des langues ou des textes. C’est ce que nous appelons Natural Language Processing et ChatGPT en fait partie. Au début, il était plus facile de détecter un biais. Entre-temps, le système réagit souvent de manière très évasive, en disant : « Je ne souhaite pas m’exprimer à ce sujet » Ou : « Je ne suis qu’un modèle linguistique et le sujet est trop délicat pour moi »

Faudrait-il donc entraîner ChatGPT avec des données non discriminatoires ? Et est-ce que cela est possible ?

Mascha Kurpicz-Briki : Le sujet est abordé dans la recherche et par de grandes entreprises. Mais ce n’est pas si simple. Le plus simple serait que nous, en tant que société, arrêtions simplement de répéter des stéréotypes ou de les coder dans les données. Mais en fin de compte, cela n’est pas possible du jour au lendemain. Cela signifie que nous travaillons avec des données qui ont été créées historiquement, elles sont un produit de leur époque. Cela fait partie de notre recherche de faire sortir ces distorsions des données d’entraînement et des modèles linguistiques.

Matthias, vous développez actuellement dans votre institut un modèle linguistique pour les textes juridiques. Qu’est-ce que je peux en imaginer ?

Matthias Stürmer : Nous nous concentrons sur des thèmes juridiques issus du contexte administratif. Nous examinons si les décisions de justice qui sont anonymisées peuvent être dé-anonymisées afin de ré-identifier les personnes. Cela constituerait un danger pour la vie privée. Néanmoins, les décisions de justice sont publiées afin d’assurer la transparence du système judiciaire. Nous examinons avec des juristes quelles sont les possibilités ou, heureusement, les limites de l’IA pour que cela ne soit pas possible si rapidement. Dans ce contexte, nous avons étudié la structure des textes juridiques. Les décisions de justice ont des structures claires et certains paragraphes ont des fonctions précises. Nous avons constaté qu’il n’existe pas encore de modèle linguistique qui se concentre sur la terminologie juridique et qui comprend l’allemand, le français et l’italien. Nous sommes en train d’élaborer ces bases.

En quoi l’anonymisation des décisions de justice est-elle importante ?

Le professeur Matthias Stürmer dirige l’Institut Public Sector Transformation au département d’économie de la HESB.

Matthias Stürmer : L’anonymisation est généralement pratiquée dans les tribunaux afin de préserver la sphère privée des parties plaignantes. Lorsque les noms des entreprises et des personnes sont rendus anonymes, le contenu de l’affaire judiciaire peut être publié. C’est pourquoi notre projet de recherche s’appelle aussi Open Justice versus Privacy, car il s’agit d’un champ de tensions : on veut d’une part protéger la sphère privée et d’autre part la transparence, afin que les jugements, en particulier les décisions du Tribunal fédéral, soient compréhensibles. Les juristes* ont peur qu’avec le big data, l’intelligence artificielle, on puisse tout à coup désanonymiser les données. Mais nous avons déjà pu réfuter cela. Même ChatGPT ne peut pas désanonymiser les décisions de justice et cela ne peut pas non plus se faire à un coût raisonnable.

Outre la protection des données, quels sont les autres risques ?

Matthias Stürmer : Les biais et la discrimination sont certainement un énorme sujet. Mais ce qui nous préoccupe encore, c’est l’idée de la souveraineté numérique. Aujourd’hui, de nombreux modèles d’IA sont produits par des entreprises américaines et chinoises. Nous voulons montrer que la Suisse peut produire de tels modèles avec ses propres ressources. Car tous les programmes de chat existants sont une boîte noire : nous ne savons pas comment, avec quelles données ils ont été entraînés, avec quels algorithmes et avec quels mécanismes de protection ils sont équipés. Nous voulons rendre cela transparent et le montrer. Pour que nous soyons moins dépendants et que des aspects comme les fake news soient endigués. C’est en fin de compte important pour la démocratie et notre société.

Dans quels domaines votre modèle peut-il être utilisé par la suite ?

Matthias Stürmer : C’est comme une fondation sur laquelle on construit différentes applications. Je le compare souvent à un moteur, quasiment un avion à réaction, que l’on peut utiliser à différents endroits. Dans notre cas, nous générons pour le Tribunal fédéral un modèle linguistique qui rend très bien l’anonymat. Jusqu’à présent, cela se faisait manuellement, c’est-à-dire avec des commandes de recherche et de remplacement. Cela fonctionnait déjà très bien, mais les jugements contiennent souvent des caractéristiques d’identification des personnes et notre modèle linguistique doit encore mieux les filtrer. Nous avons également fait des expériences : Quelle est la différence entre les modèles linguistiques génériques et spécifiques ? Ce dernier reconnaît par exemple beaucoup mieux les textes à trous et peut remplir les trous de manière plus précise qu’un modèle linguistique générique. Et maintenant, on peut imaginer les idées que l’on veut.

Lesquelles, par exemple ?

Matthias Stürmer : Une idée est de formuler plus simplement les textes juridiques, souvent difficiles à comprendre. Dans le Natural Language Processing, il y a une étape du processus qui s’appelle la simplification du texte. Celle-ci permet de produire un langage juridique plus simple. Nous ne l’avons pas encore testé, mais c’est un domaine de recherche bien connu en PNL. Cela permet de rendre les textes difficiles plus inclusifs, de sorte que tout le monde puisse bien les comprendre.

Mascha Kurpicz-Briki : C’est un très bel exemple qui montre comment les modèles linguistiques peuvent être utilisés pour l’inclusion. Car d’une part, nous avons certes le risque de discrimination, mais d’autre part, il existe de nombreux cas d’utilisation passionnants où les modèles linguistiques nous sont très utiles.

Ceci est une version abrégée de l’entretien, vous pouvez écouter la totalité ici :


Liens sur le sujet

Institut Transformation du secteur public

Projet OpenJustice vs. Privacy

Groupe de travail Applied Machine Intelligence

Projet Détection & atténuation des préjugés dans l’IA utilisée sur le marché du travail


TRANSFORM 2023 : L’intelligence artificielle dans le secteur public

Le thème de TRANSFORM 2023 est « l’intelligence artificielle dans le secteur public ». L’apprentissage automatique, les chatbots, le traitement du langage naturel et d’autres méthodes basées sur l’intelligence artificielle (IA) offrent de nombreuses opportunités, mais présentent également certains risques pour les pouvoirs publics. Où en sommes-nous aujourd’hui avec l’application de l’IA ? Quelles sont les expériences de l’administration avec l’IA ? Où existe-t-il un potentiel d’utilisation de l’IA dans les processus de travail administratifs ? Quels sont les risques et les opportunités possibles ? Ces questions seront discutées avec des intervenants* issus du monde scientifique, de l’administration et d’autres organisations.
Les keynotes seront tenues par Paulina Grnarova (DeepJudge) et Bertrand Loison (OFS), suivies d’un Reality Check de Matthias Mazenauer (canton de ZH) et d’un commentaire de Marc Steiner (IPST). Suivront une multitude de contributions différentes avec des expériences pratiques, des réflexions juridiques et une remise en question critique.

Pour plus d’informations et pour vous inscrire, cliquez ici.


Ce podcast est produit avec l’aimable soutien de : Audioflair Bern et Podcastschmiede Winterthur.

Creative Commons Licence

AUTHOR: Anne-Careen Stoltze

Anne-Careen Stoltze est rédactrice du magazine scientifique SocietyByte et hôte du podcast "Let's Talk Business". Elle travaille dans la communication de la HESB Économie, elle est journaliste et géologue.

Create PDF

Posts associés

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *