Digital & AI Literacy comme pilier de la responsabilité numérique – Un rapport de la conférence Shift

L’éthique numérique est centrale dans l’utilisation de l’intelligence artificielle. C’était le thème de la conférence Shift qui s’est tenue récemment à Zurich. Les intervenants* sont issus de la pratique et de la recherche et proposent des perspectives innovantes sur la manière dont nous pouvons, en tant que société, aborder les opportunités et les défis de la numérisation. L’auteur a assisté à la conférence et partage avec nous ses impressions et les messages clés de la conférence.

« La Suisse est-elle civilisée ? » C’est par cette question provocatrice que Karin Lange de « la Mobilière » a commencé son exposé à la conférence Shift sur l’éthique numérique, après avoir demandé au public ce que signifiait pour elle la « civilisation ». En réponse à la définition traditionnelle de la civilisation comme « l’évolution de la vie en commun des êtres humains, qui doit conduire à une coexistence aussi pacifique et exempte d’agression que possible », elle a confronté l’assistance à diverses pratiques douteuses observées dans le monde numérique : Les modèles commerciaux anarchistes (GAFA), l’économie de l’attention avec des procédés brutaux, la diffusion impunie de contre-vérités, de haine et de perversion, l’utilisation non réglementée de l’IA. Leur opinion est claire : le monde numérique est devenu un espace secondaire et celui-ci doit être davantage réglementé.

Le monde numérique : designs déceptifs et manipulation de l’opinion publique

Le monde numérique non réglementé a été davantage illustré par Markus Zimmer (ZHAW) : Les deceptive designs (ou dark patterns) sont des astuces utilisées sur les sites web et dans les applications pour nous faire faire des choses que nous n’avions pas l’intention de faire, par exemple acheter quelque chose ou s’inscrire. Une étude a montré que, bien que de telles pratiques soient perçues, elles n’ont aucune influence sur l’achat et l’intention de recommander un site. Que ce soit par manque de motivation pour la jeune génération ou par manque de compétences et d’opportunités perçues pour les plus âgés, il semble que les personnes sondées se résignent à être manipulées. Et bien que les deceptive designs soient à la limite de la légalité, la régulation de telles pratiques est laborieuse. En effet, les deceptive designs, qui sont manipulateurs mais pas nécessairement trompeurs, sont difficiles à poursuivre.

Un autre sujet brûlant dans le domaine de la législation du monde numérique est l’influence du débat numérique par le biais des bots, des trolls, des fausses informations, de la polarisation et de la pseudonymisation. La plupart des gens ne disposent pas des compétences nécessaires pour se protéger contre ces techniques de manipulation. Anna-Lena König a expliqué comment la fondation Risiko-Dialog adéveloppé à cet effetun atelier interactif pour les écoles et les organisations, afin que les utilisateurs* puissent faire l’expérience directe de telles pratiques et les analyser de manière critique. L’objectif est de développer des stratégies pour une utilisation réfléchie de la formation d’opinion numérique.

Autodétermination numérique

Markus Zimmer et Anna-Lena König ont tous deux souligné la nécessité pour les utilisateurs de mieux comprendre la technologie et d’être sensibilisés aux risques correspondants. Le fait que l’utilisation de données biométriques permettant d’identifier clairement une personne soit critique peut par exemple ne pas être clair pour la personne concernée. Laetitia Rameler a présenté pour TA-SWISS les résultats d’une étude sur trois applications de la reconnaissance de la voix, de la parole et du visage :

  • la détection précoce de maladies,
  • l’analyse des émotions pour la publicité et le marketing ou lors de procédures de candidature
  • et l’authentification par la voix dans les banques.

Toutes ces applications soulèvent la question du compromis entre les avantages offerts et le degré de surveillance nécessaire. On peut également se demander si les personnes concernées se sentent vraiment libres de refuser le processus de reconnaissance, surtout dans les situations où il existe une asymétrie de pouvoir.

La question de l’autodétermination numérique se pose également pour l’utilisation de People Analytics sur le lieu de travail. Pour l’organisatrice de la conférence, Cornelia Diethelm, la culture d’entreprise est dans ce cas centrale : Quel est le but recherché ? Amazon et la Poste suisse sont certes toutes deux actives dans le domaine de la logistique, mais leur approche de People Analytics est très différente. Il faudrait entre autres communiquer clairement dans quel but la technologie sera utilisée et qui en profitera, mais aussi sur quelles valeurs et directives le déploiement se basera, comme par exemple le code éthique pour la création de valeur basée sur les données de la Data Innovation Alliance.

Dans les entreprises, le respect des valeurs éthiques n’est pas contrôlé par un comité, mais par tous les collaborateurs, a souligné Karin Lage. Il est donc de la responsabilité de l’entreprise de fournir la formation nécessaire, ciblée sur le groupe, afin que les employés aient la compréhension nécessaire de la technologie et des risques associés pour comprendre le code éthique et s’assurer qu’il est respecté.

Responsabilité numérique des entreprises suisses

La responsabilité numérique des entreprises est également importante pour les investisseurs* institutionnels, comme l’a rapporté Matthias Narr, de la fondation Ethos. Cette fondation représente 247 caisses de pension et fondations d’utilité publique et encourage les investissements durables et responsables. La mise en œuvre d’un code de responsabilité numérique est l’une des 7 attentes qu‘ils posent aux entreprises comme principes de responsabilité numérique, avec la transparence des pratiques numériques, une protection des données de haute qualité, des principes éthiques pour l’utilisation de l’IA, l’exclusion des activités sensibles lors de la numérisation, la garantie d’une transformation sociale équitable et la réduction de l’empreinte écologique numérique .

Une analyse de ces attentes dans 40 entreprises a montré que malgré des résultats plutôt mauvais (une moyenne de 23 points sur un total de 100), il y a une tendance à l’amélioration (en 2021, le score était de 11). Les aspects de l’utilisation de l’IA (13,9), du comité d’activité sensible (11,7) et de la transformation sociale équitable (13,4) sont ceux qui présentent le plus grand potentiel d’amélioration. Certaines entreprises comme Swisscom (87), Zurich Assurance (72) ou Sonova (68) ont toutefois déjà obtenu dans l’ensemble des résultats relativement bons et servent de références. A l’avenir, les investisseurs sociaux exigeront toujours plus de transparence sur les pratiques numériques des entreprises afin de préserver un environnement économique sain qui soutient les intérêts de la société dans son ensemble.

Transparence et responsabilité ont été les maîtres mots de la conférence : les personnes concernées par la technologie doivent la comprendre afin de pouvoir prendre des décisions éclairées et contribuer à la construction d’un avenir numérique responsable.

Creative Commons Licence

AUTHOR: Sarah Degallier Rochat

Sarah Degallier Rochat dirige le domaine thématique stratégique Humane Digital Transformation. Ses recherches portent notamment sur la conception d'interfaces homme-machine inclusives, l'amélioration des compétences de la main-d'œuvre et l'impact de l'automatisation et de l'augmentation sur les conditions de travail.

Create PDF

Posts associés

Désolé, aucun article similaire n'a été trouvé.

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *