Warum Unternehmen digitale Spuren der Designarbeit sammeln wollen

Cross Platform Website, App Design Development On Laptop, Phone, Tablet. Technology Of Create Software, Code Of Mobile Applications. Programming Responsive Layout Of Graphic Interface, Ui, Ux Concept.

Die Design-Community ist besorgt, dass Unternehmen wie Figma die in der Cloud gespeicherten Design-Ressourcen ihrer Nutzer zum Trainieren von KI-Modellen verwenden, oft ohne deren ausdrückliche Zustimmung. Dies gefährdet die kreative Autonomie der Designer*innen, da nicht nur Daten, sondern auch ihre Arbeitsmethoden erfasst und genutzt werden. Über das Pro und Kontra schreibt unser Gastautor Christopher Lueg.

In der Design-Community gibt es eine gewisse Besorgnis darüber, dass Software-Unternehmen wie figma und Figma versuchen, für nicht näher spezifizierte Unternehmenszwecke Design-Ressourcen abzugreifen, die Kunden im Zuge der Nutzung der von diesen Unternehmen angebotenen Design-Tools auf die IT-Server des Unternehmens, auch bekannt als «die Cloud», hochladen. Diese Sammlung erfolgt zusätzlich zur Überwachung jeglicher Art von Interaktion auf der Website, die riesige Datenmengen generiert, die in der Regel zur Verbesserung der Website-Qualität verwendet werden (Ausmerzen von Programmierfehlern, Verbesserung der Benutzerfreundlichkeit usw.). Die zusätzlichen Daten, die diese Unternehmen sammeln wollen, umfassen alle Daten, die die Kunden möglicherweise auf ihren Servern gespeichert haben. Das erklärte Geschäftsziel besteht darin, anhand von Kundendaten neue «KI»-Modelle zu trainieren, die dann eine spezifischere Unterstützung für die jeweiligen Tools bieten als die eher generische Unterstützung, die von KI-Tools von Drittanbietern angeboten wird. Figma beispielsweise will Berichten zufolge«KI-gestützte Design-Tools vorstellen , um Adobes Dominanz herauszufordern«.

Von Power Point bis X

Powerpoint-Foliendateien können als stark vereinfachtes Beispiel dienen, um zu veranschaulichen, was es bedeutet, dass Unternehmen alle Designressourcen sammeln, die Kund*innen auf ihren Servern gespeichert haben, von endgültigen Entwürfen und abgelehnten oder genehmigten Prototypen bis hin zu Ressourcen, die nicht in tatsächlichen Entwürfen verwendet wurden. Wir alle wissen, wie sich Foliendateien im Laufe der Vorbereitung einer Präsentation verändern. Zu den Änderungen gehören die behandelten Themen, der Ablauf der Präsentation, die Hinweise des Vortragenden und vor allem die Informationen, die aufgenommen, nicht aufgenommen oder nicht mehr aufgenommen wurden. Informationen können unter anderem aus Gründen der Vertraulichkeit ausgeschlossen werden oder weil man einfach keine Andeutungen über mögliche zukünftige Entwicklungen machen möchte. Kommentare von Kollegen können Gründe für die Nichtberücksichtigung von Informationen enthalten, die wiederum viel über die internen Überlegungen verraten können.

Wenn man sich die Diskussionen in den sozialen Medien ansieht, einschließlich LinkedIn und der Plattform, die früher als Twitter bekannt war (jetzt «X»), sind viele Kunden verärgert über die Tatsache, dass sie sich von den Unternehmen, die die Keksdose plündern, «abmelden» müssen, anstatt dass die Unternehmen, wie man es vernünftigerweise erwarten könnte, an die Kunden herantreten, um die Erlaubnis dazu einzuholen, was als «Opt-in» bekannt ist.

Im Fall von Figma bedeutet «Opt-out», dass Figma irgendwann mit dem Sammeln von Daten beginnen wird, es sei denn, die Kund*innen entscheiden sich dagegen oder haben besondere Vereinbarungen getroffen, die das Sammeln von Daten verhindern würden. Harry Brignull, Autor von Deceptive Patterns (Täuschende Muster), fasste auf Linkedin zusammen, wie Figma alle möglichen Tricks anwendet, um die Wahrscheinlichkeit zu verringern, dass seine Kunden sich tatsächlich abmelden würden: «[Sie] nehmen alle Empfehlungen für ein effektives E-Mail-Design und tun das Gegenteil!»

Datenverarbeitung auf Plattformen

Die Designer*innen sind auch besorgt über die Tatsache, dass eine Abmeldung zu einem beliebigen Zeitpunkt, nachdem Figma mit der Erfassung ihrer Daten begonnen hat, die künftige Erfassung verhindert, aber nicht bedeutet, dass Figma die bereits erfassten Daten löscht. Der Grund dafür ist wahrscheinlich, dass sie einfach nicht in der Lage sind, die Daten zu entfernen, sobald sie in die KI-Modelle aufgenommen wurden.

Dies sind alles berechtigte Bedenken, die jedoch auf fast jede Plattform zur Datenverarbeitung und -weitergabe zutreffen würden (man denke an die Social-Media-Website Facebook, die Foto-Sharing-Website Flickr oder die Eventbrite-Website), wenn sie ihre Bedingungen in einer Weise ändern würden, die den Kund*innen bei der Anmeldung zur Nutzung der Plattform nicht bekannt war. Was Unternehmen, die designbezogene Tools anbieten, von anderen unterscheidet, ist die Tatsache, dass die Arbeitsprozesse, die Designer*innen von frühen Entwürfen und Prototypen zu fertigen Designs führen, das sind, was wir als (situierte) Arbeitsmethoden bezeichnen. Designartefakte sind greifbare Repräsentationen dieser Arbeitspraktiken. Das bedeutet, dass die Unternehmen, die Designressourcen sammeln, nicht einfach nur «Daten» sammeln, sondern Darstellungen von Designpraktiken. Vor fast drei Jahrzehnten wies Suchman (1995) darauf hin, dass«die Prämisse, dass wir eine besondere Autorität in Bezug auf unsere eigenen Wissens- und Erfahrungsbereiche haben, darauf hindeutet, dass wir die Fähigkeit haben sollten, nicht nur zu gestalten, wie wir arbeiten, sondern auch, wie unsere Arbeit für andere erscheint«. Das Sammeln der digitalen Spuren von Designpraktiken droht diese Vorstellung von Autonomie zu beseitigen. Design-Artefakte, die auf anderen datenintensiven Plattformen geteilt werden, wie z. B. Fotos auf der Foto-Sharing-Website Flickr, können ebenfalls Arbeitspraktiken darstellen, aber die etwas fertige Natur dieser Artefakte erlaubt es nicht so leicht, Arbeitsabläufe und -praktiken zu rekonstruieren und/oder zu «lernen».

Wie KI genutzt wird

Kund*innen mögen es in Ordnung finden, wenn Unternehmen Daten sammeln, die bei der Nutzung und Anwendung ihrer Designtools entstehen, aber sie sollten sich darüber im Klaren sein, dass es hier wirklich um die Sammlung von Arbeitspraktiken und die Ableitung von Best Practices geht. Die Unternehmen sammeln die Daten, damit ihre «KI» lernt, wie Designer*innen Designprobleme wahrnehmen, interpretieren, strukturieren und lösen. Estefani (2024) bietet eine detailliertere Aufschlüsselung, welche Arten von Daten welchem Zweck der «KI» dienen könnten.

Um zu vermeiden, dass Kund*innen die Praktiken der Datenerfassung umgehen müssen (siehe Estefani 2024 für einige Empfehlungen), würde ein vom menschenzentrierten Design inspirierter Ansatz darin bestehen, Mechanismen anzubieten, die es Kund*innen ermöglichen, zu bestimmen, ob ausgewählte Projekte für das Training von KI genutzt werden dürfen. Bewährte Verfahren bei der Entwicklung von Überwachungskameras würden die Verwendung von farbigen Indikatoren vorschlagen, um mitzuteilen, ob ein Kundenprojekt Gegenstand der Datenerfassung ist oder nicht. Eine einvernehmliche, informierte Beteiligung würde den Unternehmen wiederum dabei helfen, zu verstehen, welche Praktiken überhaupt als Dienste geeignet sind, die dann von ihren Tools angeboten werden könnten. Erfahrene Designer*innen könnten sogar bereit sein, ihre Arbeitspraktiken zu demonstrieren, um KI-Funktionen zu trainieren, die dann zur Unterstützung weniger erfahrener Designer*innen eingesetzt werden könnten.

Eine bemerkenswerte Ausnahme von der Eile, KIs zu trainieren, um Produkte zu verbessern, ist das australische Unternehmen Savage Interactive, der Hersteller von Procreate. Mit der Aussage, dass sie«keine Technologie verfolgen, die eine moralische Bedrohung für […] die menschliche Kreativität darstellt«, bestätigen sie, dass ihre preisgekrönte Software keine generative KI verwendet und die Aktivitäten der Kund*innen in den Procreate-Apps nicht verfolgt.


Referenzen

  1. Dorst, K. (2004). Zum Problem der Designprobleme – Problemlösung und Designkompetenz. Zeitschrift für Designforschung 4,2 pp. 185-196. https://doi.org/10.1504/JDR.2004.009841
  2. Estefani, J.N.A. (2024). Wie Figma AI Ihre App sehen kann – So können Sie sie stoppen. RAW 22. Juli 2024 https://raw.studio/blog/how-figma-ai-can-see-your-app-heres-how-to-stop-them/
  3. Suchman, L. (1995). Making Work Visible September. Communications of the ACM (CACM), Vol. 38, No. 9, pp. 56-64. ACM
Creative Commons Licence

AUTHOR: Christopher P. Lueg

Christopher Lueg ist Professor an der University of Illinois. Davor war er Professor für Medizininformatik an der BFH Technik & Informatik. Er hat es sich zur Aufgabe gemacht, die Welt von schlechten Benutzeroberflächen zu befreien. Er lehrt seit mehr als einem Jahrzehnt Human Centered Design und Interaction Design an Universitäten in der Schweiz, Australien und den USA.

Create PDF

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert