Éthique des données : équilibre entre innovation et responsabilité

POSMO, en tant que marché éthique des données, priorise la protection des droits et des libertés de ses producteurs de données. En conséquence, les principes éthiques de cette entreprise lui imposent de mettre en œuvre et d’utiliser des solutions technologiques innovantes. Il existe de nombreuses publications théoriques sur l’importance et l’efficacité de cette approche. Cependant, les experts notent la difficulté de la réalisation pratique d’une utilisation éthique des données pour des projets et du maintien d’un juste équilibre entre la mise en œuvre des technologies et leur utilisation responsable.

L’utilisation des données relatives à la mobilité est associée à des risques potentiels pour leurs producteurs. Les données peuvent être réidentifiées lorsqu’elles sont comparées à d’autres sets de données ou ultérieurement. Toutefois, la réidentification n’implique pas nécessairement un tort immédiat pour les personnes concernées par les données ; elle ne fait que suggérer un risque potentiel. Néanmoins, les normes éthiques en matière d’utilisation des données imposent la nécessité d’avertir et de prévenir cette éventualité.

Les risques les plus importants sont liés à la perte d’anonymat ou à la ré-identification possible des personnes concernées. Par exemple, des informations sur la fréquence et la nature des visites dans les établissements médicaux pourraient avoir une incidence négative sur les conditions des garanties d’assurance, tout comme des informations sur l’absence de résidents dans une maison à un moment donné pourraient être utilisées à des fins criminelles.

En outre, il existe toujours un risque de violation des données, les informations sensibles pouvant tomber entre de mauvaises mains et être utilisées à des fins malveillantes telles que l’usurpation d’identité, la traque ou le harcèlement. Par exemple, les données relatives à un grand nombre de personnes à un moment précis peuvent être utilisées à des fins d’ingénierie sociale, d’influence de l’opinion publique, d’actes terroristes, de provocations politiques et d’autres activités antisociales. Ainsi, par exemple, des tentatives de distribution de substances illicites peuvent survenir dans des lieux où un grand nombre d’adolescents se rassemblent. Et alors que les institutions officielles, comme les écoles, disposent de certaines mesures de sécurité, ces lieux spontanés en sont dépourvus.

Quels sont les risques ?

Les risques sérieux associés à la collecte de données sur la mobilité sont liés à la surveillance et à la perte d’anonymat, où les individus se sentent constamment surveillés, entraînant une perte d’anonymat et de liberté personnelle. Le suivi intensif des activités des travailleurs par la direction d’une organisation peut, dans certaines conditions, franchir les limites de l’autodétermination et devenir abusif.

Un autre groupe de risques est associé à la discrimination et aux biais : si les données sont biaisées (par exemple, si elles surreprésentent certaines populations ou si elles contiennent des biais sociaux inhérents à la méthode de collecte), elles peuvent conduire à des pratiques discriminatoires en matière de planification urbaine, d’allocation des ressources ou de publicité ciblée. Par exemple, des informations sur des quartiers majoritairement habités par des migrants peuvent conduire à un niveau inférieur de développement des infrastructures : disponibilité de magasins et d’écoles, transports publics, et provoquer des conflits fondés sur des différences culturelles, ethniques et religieuses. Ces informations peuvent également servir de base à la manipulation de la population, par exemple en faisant varier les prix pour des biens identiques ou en menant des campagnes de marketing agressives. Cet argument est également lié au risque d’exploitation économique, qui peut être associé au spam, à la publicité ciblée et à l’utilisation de données sans compensation.

The next in this list of potential risks is data accuracy and reliability: incorrect or misleading data can lead to poor decision-making in urban planning, transport management, and other civic areas. For instance, incomplete data about the number of people using bicycles can lead to a lack of bike racks in convenient locations for users.

Un risque particulier lié à l’utilisation des données sur la mobilité est la dépendance à la technologie. Ainsi, un faible nombre d’usagers des transports publics à certaines heures entraîne une réduction du nombre de véhicules de transport utilisés, ce qui peut avoir un impact négatif sur le confort des usagers. De surcroît, des risques sérieux sont dus à des facteurs psychologiques, tels que la crainte d’une manipulation ou d’une perte de contrôle dans la prise de décision par les personnes concernées.

Figure 1 (source: https://aircloak.com/the-five-private-eyes-part-1-the-surprising-strength-of-de-identified-data/ )

4 Conditions à la violation de la vie privée

L’impact sur les populations vulnérables ne doit pas être négligé. Les groupes vulnérables sont également difficiles à protéger dans les sets de données. En effet, il est très difficile de prévoir les cas d’utilisation et de se protéger contre les analyses biaisées ou malveillantes. Par exemple, les enfants et les personnes âgées peuvent devenir tout simplement « invisibles » dans le processus de prise de décision puisqu’ils ne sont généralement pas des sujets de données.

Comme nous l’avons démontré, le paysage des données relatives à la mobilité comporte de nombreux risques potentiels. Si les subtilités du traitement de ces données peuvent sembler dangereuses, un examen plus approfondi révèle qu’il existe plusieurs niveaux de protection qui peuvent être mis en place avant que les personnes concernées ne subissent un tort.

Il existe quatre conditions de sauvegarde contre la réidentification qui doivent toutes être respectées, comme le montre l’image ci-dessous. Voici ces conditions

  1. Le point d’entré: Sécuriser l’accès aux données
    • La première condition exige qu’un pirate ait accès aux données dé-identifiées. Pour atténuer ce risque, limiter l’accès aux informations sensibles devient un principe fondamental.
  2. L’incitation : Peser les risques et les avantages
    • La deuxième condition concerne la motivation de l’analyste à réidentifier les données. Les interdictions contractuelles et les actions de contrôle constituent des moyens de dissuasion efficaces, tandis que le coût de la ré-identification augmente avec la force des mécanismes de dé-identification.
  3. L’isolation : Rompre les schémas de reconnaissance
    • Des mécanismes d’anonymisation puissants rendent difficile la reconnaissance ou l’isolement de points de données individuels. Des techniques telles que la K-anonymité et les systèmes avancés contribuent à rendre la ré-identification de plus en plus difficile et coûteuse.
  4. L’identification : Faire le lien entre l’isolement et l’intrusion
    • Même si une personne est isolée dans les données, une véritable réidentification ne se produit que lorsque des informations personnelles y sont associées. La distinction entre l’isolement et l’identification des personnes devient cruciale pour la protection de la vie privée.

Ce n’est que lorsque ces quatre conditions sont cumulées que la vie privée d’une personne peut être violée. Cependant, cela ne se traduit pas automatiquement par un dommage pour l’individu. Du point de vue de l’attaquant, les connaissances acquises sur la victime doivent être utiles et l’attaquant doit agir sur la base de ces connaissances pour infliger un préjudice. Du point de vue de la victime, le sentiment subjectif de violation de la vie privée joue un rôle essentiel. Le fait de savoir si une personne a le sentiment d’être victime d’une intrusion ajoute une nuance aux considérations éthiques liées au traitement des données dé-identifiées.

Contrairement à l’idée largement répandue selon laquelle l’anonymisation est un défi insurmontable, les cas de ré-identification malveillante de données anonymes sont particulièrement rares. Les efforts visant à ré-identifier ces données sont souvent limités à des attaques de type « white-hat » lancées par des universitaires ou des journalistes. Les cas d’attaques malveillantes sur des données correctement anonymisées brillent par leur absence, ce qui laisse penser que les violations réussies ne sont pas aussi courantes qu’on le pensait au départ. Cependant, la progression de la technologie permet de nouvelles attaques sur des sets de données qui ont été anonymisés avec des algorithmes soudainement dépassés. Il est donc impératif de publier le moins de données possible.


À propos du projet

La coopérative Posmo (POSitive MObility) recueille des données de mobilité d’une qualité inédite en Suisse. Les données ne sont pas seulement utilisées comme base de décision pour la conception d’une mobilité plus durable, mais sont également mises à disposition sur un marché des données pour la recherche, le développement urbain ou la planification de la mobilité. L’objectif de la coopérative n’est pas de générer des profits, mais d’apporter une contribution importante à un meilleur avenir pour la Suisse. Les données de mobilité étant très sensibles au regard du droit de la protection des données, Posmo a élaboré, dans le cadre d’un précédent projet Innocheque en collaboration avec des chercheurs de l’“Institute for Data Applications and Security” IDAS, un premier concept pour le marché des données éthiques, qu’il s’agit à présent d’approfondir.

Pour plus d’informations.

Creative Commons Licence

AUTHOR: Olena Yatsenko

Olena Yatsenko est chercheuse invitée au laboratoire de réalité virtuelle et de robotique de la Haute école spécialisée bernoise et enseignante en philosophie universitaire à l'Université pédagogique nationale Drahomanov (Kiyv, Ukraine).

AUTHOR: Maël Gassmann

Maël Gassmann travaille comme assistant à l'Institut pour les applications de données et la sécurité IDAS de la Haute école spécialisée bernoise. Il a étudié l'informatique avec une spécialisation en sécurité informatique.

AUTHOR: Dominic Baumann

Dominic Baumann travaille comme assistant à l'Institute for Data Applications and Security IDAS à la Haute école spécialisée bernoise. Il étudie l'informatique dans la spécialisation IT-Security.

AUTHOR: Annett Laube

Annett Laube est chargée de cours en informatique à la HESB Technique et informatique et dirige l'Institute for Data Applications and Security (IDAS). Elle a la responsabilité professionnelle du magazine scientifique SocietyByte, notamment pour le thème principal Digital Identity, Privacy & Cybersecurity.

Create PDF

Posts associés

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *