Trois facettes de la transformation numérique humaine

Comment la transformation numérique va-t-elle influencer notre société et notre vie, et à quoi devons-nous faire attention pour que l’être humain reste au centre ? Notre auteure aborde trois facettes.

La transformation numérique progresse rapidement et a le potentiel de changer la manière dont nous vivons, travaillons et apprenons. De nouveaux défis apparaissent, notamment avec les technologies du domaine de l’apprentissage automatique. Que faut-il prendre en compte pour que ce processus de changement reste respectueux de l’être humain ?

Le nouveau champ thématique stratégique Transformation numérique humaine de la Haute école spécialisée bernoise se penche précisément sur ce sujet. Le champ thématique s’intéresse à la manière dont la technologie peut être utilisée au mieux et de manière durable, en plaçant l’homme et ses besoins au centre. Mais qu’est-ce que cela signifie pour le développement de la technologie ?

Cet article a pour but de mettre en lumière trois aspects de ce type, qui s’orientent sur les questions directrices suivantes :

  1. Comment la coopération entre l’homme et la technologie doit-elle être organisée pour permettre une utilisation responsable et acceptable ?
  2. Quels sont les facteurs éthiques et humains pertinents pour l’entraînement des modèles d’IA ?
  3. De quoi faut-il tenir compte en ce qui concerne les stéréotypes dans les données d’entraînement et la discrimination potentielle par les décisions de l’IA ?

Nous et la technologie

Dans le débat actuel, l’intelligence artificielle est malheureusement régulièrement présentée comme un robot omniscient dont l’objectif est, à un moment donné, de détruire l’humanité. Cela se produit aussi bien dans les grands médias que dans une partie du débat spécialisé. Les avis divergent quant à savoir si un tel scénario se produira un jour, et si oui, quand. Cet objectif de développer une intelligence artificielle générale, qui s’apparente plus à un scénario hollywoodien qu’à un outil utile, doit toutefois être remis en question dans la perspective d’une transformation numérique humaine.

Il existe des problèmes bien plus urgents dans la collaboration entre les hommes et la technologie, qui sont déjà pertinents pour les outils existants aujourd’hui. Certaines chercheuses de la HESB ont appelé, dans une contribution [1] appelaient à s’attaquer en particulier aux défis liés à la collaboration entre les hommes et les machines. Un exemple important est ici le fait qu’un homme reçoive des ordres de la machine (ou du logiciel) ou que l’homme utilise ces technologies comme des outils dans l’assistance au travail, mais que le contrôle de ce qui se passe et la réflexion sur les décisions restent chez l’homme.

Nous nous engageons donc à ce que de telles technologies soient mises en œuvre dans le cadre d’une intelligence augmentée plutôt qu’artificielle (augmented instead of artificial intelligence). Au lieu de remplacer complètement l’homme, les technologies doivent servir d’outils intelligents pour soutenir le quotidien (professionnel) de l’homme. Cela est nécessaire d’une part parce que seul l’homme peut garder une vue d’ensemble du contexte et réfléchir de manière critique aux décisions ou aux propositions. L’IA ne vaut que ce que valent ses données d’entraînement et travaille avec des probabilités. Cela peut souvent bien fonctionner, mais ce n’est pas suffisant pour prendre des décisions critiques concernant les personnes ou les ressources.

Les personnes en coulisses

Un autre point souvent sous-estimé de l’humanité en ce qui concerne les systèmes d’IA sont les personnes qui sont impliquées dans les processus d’entraînement. Pour que de tels systèmes puissent apprendre, on fait souvent appel à des personnes, par exemple pour classer manuellement des textes dans des catégories. Si cela peut en partie ne pas poser de problème, il existe un grand potentiel de discussion dans certains cas d’application et lorsque les conditions de travail sont mauvaises.

Une recherche du magazine TIME [2] a révélé précisément cela dans le contexte de ChatGPT. Afin d’éviter des textes toxiques et insultants dans les réponses du célèbre chatbot, l’entreprise OpenAI avait externalisé cette tâche à une entreprise au Kenya. Là-bas, des textes parfois dérangeants devaient être traités par des humains pour environ 2 dollars de l’heure.

Une autre question dans ce contexte est l’origine des données. Qui a écrit les textes à partir desquels de nouvelles œuvres sont créées au moyen de l’IA ? Il en va de même pour les images et le langage, pour lesquels les données d’entraînement de l’IA ont été créées par des artistes humains*. La gestion de cette problématique offre de nombreuses questions ouvertes pour la société numérique du futur.

Équité et biais

Le troisième aspect des composantes humaines de la transformation numérique englobe le problème de la discrimination par l’IA. De nombreux exemples ont montré ces dernières années comment de telles technologies reproduisent les stéréotypes de la société. Cela a une influence sur les résultats de tels modèles. Dans un exemple connu, un logiciel a été entraîné à trier des dossiers de candidature [3]. Dans un précédent article de SocietyByte, nous avions parlé des stéréotypes dans ChatGPT [4]. La résolution technique de ce problème est très difficile et fait encore l’objet de recherches en cours. En particulier, le développement de telles méthodes de reconnaissance pour les différentes langues est un défi, et il peut y avoir des différences culturelles concernant les stéréotypes qui existent [5][6].


À propos de la recherche AI à la HESB

Le groupe de recherche Applied Machine Intelligence (bfh.ch/ami) se penche sur les défis scientifiques, techniques et sociaux des technologies d’intelligence artificielle. Avec une focalisation appliquée, ils placent l’être humain au centre. Ils sont notamment le partenaire technique du projet européen BIAS (biasproject.eu), qui étudie comment reconnaître et réduire la discrimination des applications de l’IA dans le domaine des RH.


Références

[1] https://www.frontiersin.org/articles/10.3389/frobt.2022.997386/full

[2] https://time.com/6247678/openai-chatgpt-kenya-workers/

[3] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

[4] https://www.societybyte.swiss/2022/12/22/hi-chatgpt-hast-du-vorurteile/

[5] https://www.frontiersin.org/articles/10.3389/fdata.2021.625290/full

[6] https://ceur-ws.org/Vol-2624/paper6.pdf

Creative Commons Licence

AUTHOR: Mascha Kurpicz-Briki

Create PDF

Posts associés

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *