Pourquoi les entreprises souhaitent-elles collecter les traces numériques du travail de design ?
La communauté du design s’inquiète de l’utilisation des ressources de conception par des entreprises comme Figma pour entraîner des modèles d’IA, souvent sans le consentement explicite des utilisateurs. Cela menace l’autonomie créative des designers, car ce ne sont pas seulement les données qui sont collectées et utilisées, mais aussi leurs méthodes de travail. Notre auteur invité, Christopher Lueg, examine les avantages et les inconvénients de cette situation.
La communauté du design exprime des préoccupations croissantes concernant des entreprises de logiciels telles que figma et Figma, qui récupèrent les ressources de conception stockées par leurs utilisateurs sur des serveurs cloud à des fins commerciales non spécifiées. Ces ressources sont collectées dans le cadre de l’utilisation des outils de conception proposés par ces entreprises. Cette collecte s’ajoute à la surveillance des interactions sur les sites web, générant d’énormes volumes de données utilisées principalement pour améliorer la qualité du service (par exemple, en éliminant les erreurs de programmation ou en optimisant l’ergonomie). En plus de ces données, Figma et d’autres entreprises cherchent à collecter toutes les données que les clients peuvent avoir stockées sur leurs serveurs. L’objectif annoncé est de former de nouveaux modèles d’IA afin d’offrir un soutien plus ciblé aux outils qu’elles proposent, en concurrence avec les solutions IA plus générales offertes par des tiers. Figma, par exemple, aurait pour ambition de « développer des outils de conception basés sur l’IA pour contester la domination d’Adobe ».
De PowerPoint à X
Les fichiers PowerPoint constituent un exemple simplifié de ce que signifie pour les entreprises de collecter toutes les ressources de conception stockées par leurs clients. Cela inclut non seulement les conceptions finales et les prototypes validés ou rejetés, mais aussi les éléments non utilisés dans les conceptions finales. On sait que les fichiers PowerPoint évoluent au fur et à mesure de la préparation d’une présentation, avec des changements qui concernent les thèmes abordés, la structure de la présentation, les remarques du présentateur, et surtout, les informations qui ont été incluses ou exclues. Ces omissions peuvent être motivées par des considérations de confidentialité ou par le souhait de ne pas évoquer des développements futurs. Les commentaires des collègues peuvent également fournir des raisons pour lesquelles certaines informations ont été omises, offrant ainsi un aperçu des considérations internes.
En ce qui concerne les discussions sur les réseaux sociaux, notamment LinkedIn et la plateforme désormais connue sous le nom de X (anciennement Twitter), de nombreux clients se sentent frustrés par le fait qu’ils doivent se « désinscrire » des entreprises qui « récoltent » leurs données, plutôt que ces entreprises les sollicitent de manière proactive pour obtenir leur consentement, comme le prévoit la procédure d’« opt-in » (consentement préalable).
Dans le cas de Figma, l’« opt-out » signifie que Figma commence à collecter des données dès qu’un utilisateur* ne choisit pas explicitement de s’y opposer, sauf s’il a signé un accord spécifique pour empêcher cette collecte. Harry Brignull, auteur de Deceptive Patterns (modèles trompeurs), a souligné sur LinkedIn que Figma utilise des techniques bien pensées pour minimiser les désinscriptions: « [Ils] prennent toutes les recommandations pour une conception efficace des e-mails et font le contraire ! »
Traitement des données sur les plateformes
Les concepteurs* s’inquiètent également du fait qu’une désinscription après que Figma a commencé à collecter des données empêche la collecte future, mais ne signifie pas pour autant que les données déjà recueillies soient supprimées. Il est probable qu’une fois que ces données sont intégrées aux modèles d’IA, il devient techniquement difficile de les retirer.
Bien que ces préoccupations soient légitimes, elles s’appliqueraient à de nombreuses plateformes de traitement et de partage de données, telles que les réseaux sociaux (Facebook, Flickr, Eventbrite), si ces plateformes modifiaient leurs conditions d’utilisation sans en informer les utilisateurs*. Ce qui distingue les entreprises proposant des outils de conception des autres, c’est que les processus de travail des designers, qui vont des premières esquisses aux conceptions finales, font partie de ce que l’on appelle des « méthodes de travail situées ». Les artefacts de conception sont des représentations tangibles de ces pratiques de travail. Cela signifie que les entreprises qui collectent des ressources de conception ne se contentent pas de recueillir des « données », mais aussi des représentations de pratiques de conception. Il y a presque trois décennies, Suchman (1995) soulignait que « l’idée selon laquelle nous avons une autorité particulière sur nos propres domaines de connaissance et d’expérience suggère que nous devrions avoir la capacité de façonner non seulement la façon dont nous travaillons, mais aussi la façon dont notre travail apparaît aux autres ». La collecte des traces numériques des pratiques de design risque de compromettre cette notion d’autonomie. Les artefacts de design partagés sur des plateformes axées sur les données, comme Flickr, peuvent aussi représenter des pratiques de travail, mais leur nature plus figée ne permet pas aussi facilement de reconstruire et/ou d’« apprendre » des processus de travail.
Comment l’IA est utilisée
Les utilisateurs* peuvent estimer normal que les entreprises collectent des données générées par l’utilisation de leurs outils de conception, mais ils doivent être conscients que ces entreprises collectent aussi des pratiques de travail pour en déduire des meilleures pratiques. L’objectif est que l’IA apprenne comment les designers perçoivent, interprètent, structurent et résolvent les problèmes de design. Estefani (2024) propose une analyse plus détaillée des types de données susceptibles de servir à la formation des IA.
Pour éviter que les clients ne cherchent à contourner les pratiques de collecte de données (voir Estefani 2024 pour quelques recommandations), une approche centrée sur l’humain consisterait à offrir des mécanismes permettant aux clients de décider si leurs projets peuvent être utilisés pour la formation à l’IA. De bonnes pratiques de développement de technologies de surveillance suggéreraient l’utilisation d’indicateurs visuels pour signaler si un projet est utilisé dans le cadre de cette collecte. Une participation consensuelle et informée aiderait à la fois les entreprises à mieux comprendre quelles pratiques sont appropriées pour être utilisées dans leurs outils, et les concepteurs à garder le contrôle sur leurs méthodes de travail.
Une exception notable à cette tendance est l’entreprise australienne Savage Interactive, fabricante de Procreate. En affirmant qu’ils « ne suivent aucune technologie qui constitue une menace morale pour la créativité humaine », l’entreprise confirme que son logiciel primé n’utilise pas d’IA générative et ne suit pas les activités des utilisateurs dans l’application Procreate.
Références
- Dorst, K. (2004). Sur le problème des problèmes de design – résolution de problèmes et compétence en design. Zeitschrift für Designforschung 4,2 pp. 185-196. https://doi.org/10.1504/JDR.2004.009841
- Estefani, J.N.A. (2024). Comment Figma AI peut voir votre application – Comment l’arrêter. RAW 22 juillet 2024 https://raw.studio/blog/how-figma-ai-can-see-your-app-heres-how-to-stop-them/
- Suchman, L. (1995). Rendre le travail visible en septembre. Communications of the ACM (CACM), Vol. 38, No. 9, pp. 56-64. ACM
Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !