Beiträge

Auch Algorithmen diskriminieren – wie es ihnen ihre Programmierer vorgeben

Unternehmen setzen vermehrt Künstliche Intelligenz (KI) ein, um Entscheidungen zu treffen oder basierend auf deren Vorschlägen zu entscheiden. Diese Vorschläge können auch diskriminierend sein. Um dies zu verhindern, müssen wir nicht nur Programmcodes auf technischer Ebene verstehen, sondern auch menschliche Denkweisen und Entscheidungsprozesse einbeziehen, um systematische Täuschungen zu erkennen und zu reduzieren. CO-Autorin Thea Gasser schlägt dazu Hilfsmittel und Vorgehensweisen in ihrer Bachelorthesis [1] vor, die kürzlich auf der TDWI-Konferenz in München mit einem Preis ausgezeichnet wurde.

In letzter Zeit wächst die Sorge über unfaire Entscheidungen, die mit Hilfe von algorithmischen Systemen getroffen werden und die zu Diskriminierung von sozialen Gruppen oder Einzelpersonen führen. Beispielsweise wird Googles Werbesystem vorgeworfen, einkommensstarke Jobs vorwiegend männlichen Nutzern anzuzeigen. Auch Facebook’s automatischer Übersetzungsalgorithmus hat 2017 für Aufsehen gesorgt, als dieser eine falsche Übersetzung für einen Benutzerbeitrag wählte, was dazu führte, dass die Polizei den betroffenen Benutzer verhörte [2]. Oder Seifenspender, die für Menschen mit dunkler Haut nicht funktionieren [3]. Darüber hinaus sind verschiedene Fälle bekannt, bei denen selbstfahrende Autos Fussgänger oder Fahrzeuge nicht erkennen konnten, was zum Verlust von Menschenleben führte [4].

Die aktuelle Forschung zielt darauf ab, menschliche Intelligenz auf KI-Systeme abzubilden. Robert J. Steinberg [5] definiert menschliche Intelligenz als “…mentale Kompetenz, die aus den Fähigkeiten besteht, aus Erfahrung zu lernen, sich an neue Situationen anzupassen, abstrakte Konzepte zu verstehen und zu beherrschen und Wissen zu nutzen, um das eigene Umfeld zu verändern.” Bis heute fehlen KI-Systemen jedoch beispielsweise die menschliche Eigenschaft Selbstwahrnehmung. Die Systeme sind immer noch auf menschliche Eingaben in Form von erstellten Modellen und ausgewählten Trainingsdaten angewiesen. Dies impliziert, dass teilweise intelligente Systeme von den Ansichten, Erfahrungen und Hintergründe des Menschen stark geprägt sind und somit auch kognitive Verzerrungen aufweisen können.

Dabei werden Verzerrungen (engl.: Bias) als “…die Handlung eine bestimmte Person oder eine Sache auf eine unfaire Art und Weise zu unterstützen oder sich ihr zu widersetzen, dadurch dass zugelassen wird, dass persönliche Meinungen das Urteilsvermögen beeinflussen” definiert [6]. Ursachen für kognitive Verzerrungen im menschlichen Denkprozess und in Entscheidungsfindungen sind Informationsüberflutung, Bedeutungslosigkeit der Information, die Notwendigkeit schnell zu handeln, oder Unsicherheit darüber, woran man sich später erinnern muss und was vergessen werden kann [7]. Als Folge kognitiver Verzerrungen lassen sich Menschen unbewusst täuschen und erkennen möglicherweise nicht die fehlende Objektivität ihrer Schlussfolgerungen [8]

Die Erkenntnisse der Bachelorarbeit der Co-Autorin mit dem Thema “Bias – A lurking danger that can convert algorithmic systems into discriminatory entities” (1)  haben zunächst gezeigt, dass Verzerrungen in algorithmischen Systemen eine Quelle für unfaire und diskriminierende Entscheide sind. Weiterhin resultiert aus der Arbeit ein Framework, welches zur KI-Sicherheit beitragen soll, indem es Massnahmen vorschlägt, die zur Identifizierung und Minderung von Verzerrungen während der Entwicklungs-, Implementierungs- und Anwendungsphase von KI-Systemen beitragen. Das Framework besteht aus einem Metamodell, das 12 wesentliche Bereiche umfasst (z.B. “Project Team”, “Environment and Content” etc.) und den gesamten Software-Lebenszyklus abdeckt (siehe Abb. 1). Für jeden der Bereiche steht eine Checkliste zur Verfügung, durch deren Anwendung die Bereiche vertieft betrachtet und analysiert werden können.

Abbildung 1: Metamodell des Bias Identification and Mitigation Frameworks

Als Beispiel wird im Folgenden der Bereich “Project Team” näher erläutert (siehe Abb. 2). Wissen, Ansichten und Einstellungen einzelner Teammitglieder können nicht gelöscht oder ausgeblendet werden, da es sich hierbei in der Regel um unbewusste Faktoren handelt, die auf den unterschiedlichen Hintergrund und die vielseitigen Erfahrungen jedes einzelnen Mitglieds zurückzuführen sind. Die resultierende Verzerrung wird wahrscheinlich in das algorithmische System übertragen.

Abbildung 2: Checklistenausschnitt für den Bereich “Projektteam” des Metamodells

Daher müssen Maßnahmen ergriffen werden, damit das System die dem Kontext entsprechende Fairness aufweist. Es ist notwendig, dass es einen Austausch unter den Projektmitgliedern gibt, bei dem jede/r ihre/seine Ansichten und Anliegen offen, vollständig und transparent teilt, bevor das System gestaltet wird. Missverständnisse, Konfliktvorstellungen, zu viel Euphorie und unbewusste Annahmen oder unsichtbare Aspekte können so aufgedeckt werden. Die Checkliste für den Bereich “Project Team” enthält die folgenden konkreten Maßnahmen zur Lösung der oben genannten Probleme:

Alle Projektmitglieder (1) haben an Schulungen zum Thema Ethik teilgenommen, (2) sind sich des Themas Bias bewusst, das im menschlichen Entscheidungsprozess existiert, (3) wissen, dass Bias in einem algorithmischen System reflektiert werden kann und (4) betrachten im Systemkontext die gleichen Attribute und Faktoren als am meisten relevant. Das Projektteam (1) spiegelt Vertreter aller möglichen Endnutzergruppen wieder, (2) ist ein funktionsübergreifendes Team mit Diversität in Bezug auf Ethnizität, Geschlecht, Kultur, Bildung, Alter und sozioökonomischen Status, und (3) besteht aus Vertretern des öffentlichen und privaten Sektors.

In der Bachelorarbeit der Co-Autorin sind Checklisten für alle im Metamodell aufgeführten genannten Bereiche enthalten. Basierend auf den Ergebnissen der Arbeit soll das Framework ein initialer Rahmen sein, der an die spezifischen Bedürfnisse in einem gegebenen Projektkontext angepasst werden kann. Der vorgeschlagene Ansatz hat die Form einer Richtlinie z.B. für die Mitglieder eines Projektteams. Die Anpassungen des Frameworks können auf der Grundlage eines definierten Verständnisses von Systemneutralität vorgenommen werden, welches für die jeweilige Anwendung oder Anwendungsdomäne spezifisch sein kann. Wenn das auf den jeweiligen Kontext angepasste Framework in einem verpflichtenden Rahmen innerhalb eines Projekts verwendet wird, ist es sehr wahrscheinlich, dass die entwickelte Anwendung die vom Projektteam oder Unternehmen definierte Neutralität besser widerspiegelt. Die Prüfung, ob das Framework angewendet und die Anforderungen eingehalten wurden, hilft herauszufinden, ob das System den definierten Neutralitätskriterien gerecht wird oder ob und wo Handlungsbedarf besteht.

Um Verzerrung in algorithmischen Systemen angemessen anzugehen, muss in Unternehmen, in denen KI-Verantwortung ernst genommen wird, eine übergreifende und umfassende Governance vorhanden sein. Im Idealfall verinnerlichen Projektmitglieder das Framework und betrachten es als verbindlichen Standard.

 


Referenzen

  1. Gasser, T. (2019). Bias – A lurking danger that can convert algorithmic systems into discriminatory entitie: A framework for bias identification and mitigation. Bachelor’s Thesis. Degree Programme in Business Information Technology. Häme University of Applied Sciences.
  2. Cossins, D. (2018). Discriminating algorithms: 5 times AI showed prejudice. Retrieved January 17, 2019.
  3. Plenke, M. (2015). The Reason This “Racist Soap Dispenser” Doesn’t Work on Black Skin. Abgerufen 20. Juni 2019.
  4. Levin, S., & Wong, J. C. (2018). Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian. The Guardian. Retrieved February 17, 2019.
  5. Sternberg, R. J. (2017). Human intelligence. Retrieved June 20, 2019.
  6. Cambridge University Press. (2019). BIAS | meaning in the Cambridge English Dictionary. Retrieved June 20, 2019.
  7. Benson, B. (2016). You are almost definitely not living in reality because your brain doesn’t want you to. Retrieved June 20, 2019.
  8. Tversky, A., & Kahneman, D. (1974). Judgment under Uncertainty. Heuristics and Biases. Science, New Series, 185(4157), 1124-1131.
PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

How art institutions can manage their metadata

Virtual assistants need descriptive metadata to work correctly. But many art organizations are poorly positioned with it. To close this gap, a Canadian start-up has developed a tool for art organizations to manage their metadata, writes our author Gregory Saumier-Finch.

Context

Discoverability is changing. We are using screens and virtual assistants, driven by AI, to plan our leisure time. In order to participate in this AI shift, events and artistic productions need descriptive metadata. Without the data, even the best algorithms will fail, and the “long tail” of the internet will disappear.

Most arts organizations are poorly placed to benefit from the surge in AI discoverability. While some large arts organizations have technical skills to generate descriptive metadata on their websites, our research shows that there are only a handful. However, for the roughly 2000 non-profit arts organizations in Canada, it is not economically viable for each organization to hire a web developer with the skills needed to publish descriptive metadata.

This leaves a majority of arts organizations both unaware (not realizing that their event data is missing) and vulnerable (being mis-represented by 3rd parties who do generate descriptive metadata.)

Current status quo of the AI boom has shifted control away from arts organizations and into the hands of 3rd parties who end up controlling the descriptive metadata that appears in search engines and virtual assistants. A quick Google search for “events near me” will show event metadata sourced from meetup sites (meetup.ca), event aggregators (theatrelandltd.com, eventful.com), restaurant aggregators (restomontreal.ca), tourism sites (rove.me), and ticketing platforms (ticketmaster.ca, StubHub.com.) Notably there is almost a complete absence of authoritative metadata sourced from the art organizations that are actually producing or presenting the events.
The gap is widening between those companies that have descriptive metadata, such as the commercial film industry, and those that don’t. Cluttered webpages with semi-structured data are carefully and painstakingly curated on web sites by arts organizations. However, there is a trend of diminishing returns, as fewer and fewer people use the websites of arts organizations to learn “what’s happening near me”. We are at a turning point in on-line discoverability where structured and linked open data is becoming the prerequisite for the current generation of findable events. Linked Open Data provides value for both human and machine. If we can close the gap by converting arts organization websites into actionable linked open data, then arts organizations will be well positioned to benefit from the AI boom, and people will be able to ask their virtual assistant “What’s showing near me?” and get an authoritative answer.

Footlight

Footlight is a tool developed by Culture Creates, a Canadian tech-startup specializing in the cultural sector, and designed for arts organizations (meaning all stakeholders ranging from individuals to supporting arts organizations) to manage their descriptive metadata.
Footlight has the following design goals:

  • A zero-setup tool designed for arts organizations with a one-hour learning curve.
  • Entity extraction from websites currently managed by arts organizations, but without having to change the website itself (technical changes to websites are often unrealistic due to lack of technical skills within the arts organization). “Entity extraction” refers to the process by which unstructured or semi-structured data is transformed into structured data.
  • Entity linking with external knowledge graph artsdata.ca and wikidata.org. Federated queries create a rich set of information presented to the user to help disambiguate extracted entities.
  • Email notification and issue tracking to manage daily changes to metadata (descriptions, dates, tickets, links to people, venues, performances and performance works, etc.).
  • A community input mechanism to further enrich and interlink metadata while maintaining authority and traceability when multiple “truths” emerge.
  • An inclusive system (multiple points of view) reflecting the diversity present in the arts sector.
  • A publishing tool to push linked open data to multiple platforms including the arts organization’s own website, external knowledge graphs and traditional databases.

Vision of Artsdata.ca Knowledge Graph

Artsdata.ca is a Canadian performing arts knowledge graph started in 2019 with the help of the government of Canada, several arts organizations and Culture Creates.

It has multiple sources of data including existing structured data, manually entered data, as well as data aggregated by trusted third parties. artsdata.ca was started in parallel with Footlight and, at the time of writing this article, is still in its infancy.

Footlight uses data from the artsdata.ca knowledge graph extensively. The knowledge in artsdata.ca is the key component that enables Footlight to do entity detection, entity extraction and name resolution. The more complete artsdata.ca, the more cross referencing and error detection performed, the more accurately Footlight can do its work.

Data structured, linked and validated through Footlight is also fed back into artsdata.ca.

While the governance of artsdata.ca is still to be decided, Culture Creates proposes putting this valuable mass of metadata into an innovative model of collective ownership involving arts organizations across Canada in the form of a platform cooperative.

Culture Creates seeks to shift the existing power of closed exclusive data access presently held by multinational tech companies to one that is open and accessible for the arts in Canada. And with access to valuable metadata, the arts will be able to generate and capitalize on new opportunities. It is a proposed digital vision designed to better position the Canadian arts sector to seize opportunities, innovate, develop, amplify and over time transform organizational models.

2018 Pilot Project

In the summer of 2018 the first cohort of Canadian arts organizations was launched with 8 members from several provinces. Footlight was able to extract 90% of the events from participating websites, and structure the descriptive event metadata using schema.org with all the mandatory and recommended properties documented by Google (https://developers.google.com/search/docs/data-types/event). Footlight also added additional properties such as linking a subset of venues, people and organizations to artsdata,ca knowledge graph and wikidata.org.

By the end of the first pilot project, Footlight was publishing linked open data to artsdata.ca and to several of the participating arts organizations’ websites.

To publish data on arts organizations’ websites, the Footlight “code snippet” was used to inject JSON-LD into the appropriate event web page. In one case, the Footlight “code snippet” was added by the digital marketing manager using Google Tag Manager (without having to touch the website HTML). In another case, the “code snippet” was added to the HTML header by the organization’s website provider. The pilot ended with 100% of the events being published and updated daily on artsdata.ca but only some participants installing the “code snippet” for publishing event data on their respective websites.

Benefits

The benefits for the participating arts organizations can be divided into 2 areas: the first area is improved organic search engine optimization (SEO), and the second area is increased data circulation.

1. In the first area of benefits, there was an observed improvement in Google Search for those companies using the “code snippet” to publish structured data on their webpages. Search appearance of events in Google was enhanced with new Rich results, Event listings, and Event details (terminology of Google Search Console). Illustrations 1 and 2 below show the impact on Google search for Canadian Stage. Canadian Stage is an arts organization that participated in the pilot project and succeeded in placing the Footlight “code snippet” on their website. Footlight was able to publish event metadata that was picked up by Google to improve Google Search appearance and Google’s Knowledge Graph.

Illustration 1

Illustration 2

2. In the second area of benefits, a 3rd party data client (regional governmental agency) was successful in adding event listings from Footlight as a single source, without having to manually enter multiple events from multiple arts organizations’ websites. A weekly import of data ensured that the data remained up to date.

Lessons learned

Lesson 1

Arts organizations found it difficult to install the Footlight “code snippet”.
To address this, Culture Creates will explore ways to further simplify the “code snippet” installation. One hypothesis is that a “chat bot” could help. The “chat bot” would guide users through the steps of installing the code snippet by presenting different options (Google Tag Manager, CMS, contact their web provider) and then depending on the option selected, provide contextual assistance (i.e. compose emails to communicate with web provider), and finally complete the installation with a system test to confirm proper operation.

Lesson 2

Listing sites, such as the city of Laval in Quebec, would like Footlight to be integrated into their existing calendar system.
To address this, Culture Creates is working on a project of integration with a local calendar software called Caligram (caligram.org). The API would enable users of the 3rd party calendar system to perform all of Footlights features from within the user interface of the 3rd party calendar system.

Conclusion

At Culture Creates, we understand that for any digital transformation to occur – in any sector – a critical mass of structured data is needed. We developed Footlight technology to structure and create linked open data for the arts. We have chosen a narrow focus on performance listings and descriptive event metadata.

Beyond the benefits of improved find-ability and efficiency, when a critical mass of Canadian arts organizations adopt linked open data, not only will the arts sector become the digital authority of its own metadata, it generates a valuable knowledge graph of usable and connected metadata.

If we are truly interested in shifting the existing power from multinational tech companies to a more fair and accessible digital environment for stakeholders in the arts in Canada, we must start with a focus on developing solutions and tools that are as easy to use and understand, that remove complexity, and are made available to all stakeholders in the arts. This is paramount in helping the sector retain agency over their individual and collective metadata.


Join a Culture Creates Pilot Project

Culture Creates continues to develop pilot projects with arts organizations, and is currently looking for new cohorts in Canada. If you are a Canadian arts organizations interested in taking part, please contact tammy@culturecreates.com.

Interested arts organizations will be asked to form a cohort that includes several members. Each cohort will have to provide and/or seek joint funding, which will be used for on-boarding and supporting the cohort, as well as cover the cost of Footlight.

The lack of descriptive metadata is an international concern. Currently, Culture Creates is focused on Canada because the Canadian government has developed policies and earmarked funding to support the digital transformation of its arts and culture sector. However, in the future, we envision expanding to the international community.

Want to know more? Contact tammy@culturecreates.com.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Wenn humanoide Roboter auch pflegen

Die digitale Transformation wird auffallend einseitig diskutiert. Ausführlich thematisiert werden zwar Effizienz, Kostenreduktion und Sicherheit. Völlig unterbelichtet bleibt jedoch, was das Algorithmisieren mit uns Menschen macht, ausser uns zu ersetzen. Die Berufsbilder passen spätestens dann nicht mehr, wenn menschenförmige Roboter als (verlässlichere) ArbeitskollegInnen das Feld aufmischen – eine kritische Betrachtung unseres Autors.

Erfreulicherweise entscheiden sich viele junge Menschen für Ausbildungen im Gesundheitssektor. Allerdings wird der Bedarf trotz grossen Anstrengungen weit über dem Fachkräftepotenzial liegen: zum einen steigen viel zu viele aus (32% der Ärzte und 46% der Pflegenden; 1) , zum anderen sinkt die Zahl der SchulabgängerInnen. Fehlende Professionals und steigende Kosten zwingen zu Effizienzsteigerungen, ja zur Industrialisierung der Versorgung. Konsequenz: Wer heute in einen Gesundheitsbereich einsteigt, wird humanoide und humanoforme Roboter als Arbeitskollegen haben.

Entsprechend sind disruptive Verschiebungen zu erwarten: Wenn in der industrialisierten Routineversorgung das Lean Management umgesetzt und die gestrafften Prozesse nur noch hochspezialisiertes Knowhow für bestimmte Funktionen benötigen, braucht es dann noch mehrjährige Berufsausbildungen und Professionen mit abgegrenzten Berufsbildern?

Diese weitreichende Grundsatzfrage wird in der Bildung der Gesundheitsberufe nicht gestellt. Eigentlich eine geradezu unethische Unterlassung – hängt davon doch die Perspektive und die Lebensgestaltung von Zehntausenden junger Menschen ab, die eindringlich motiviert werden, möglichst 30 oder 40 Jahre dem Gesundheitswesen zu dienen. Wird die lebenslange Weiterbildung deren Neuausrichtung und Einpassung in die industrialisierten Prozesse richten können? Oder bleiben dann nur noch die Fittesten im völlig umgekrempelten Arbeitsmarkt? Diejenigen, die sich in die verbleibenden Nischen einfügen können, wenn alles automatisiert sein wird, was automatisiert werden kann?

Mehr Zuwendung oder futuristische Sozialromantik?

Im Quervergleich fällt auf, dass im Gesundheitssektor eine konservierende Lernwelt dominiert. Tief verankert ist die Vorstellung, dass die Versorgung von (kranken) Menschen nicht substituierbar ist, weil dies Empathie, Beziehungsarbeit, Dialog und Reflexion erfordert. Ausbildungen investieren viel in die Identitätsbildung. Diese umfasst die sukzessive Anpassung an Normen, berufsrelevante Vorstellungen und Wertorientierungen, aber auch die Formung der Persönlichkeit sowie den Kern und Umfang des Handelns. Durch den Bezug auf Rollenmodelle und Traditionen werden oft idealtypische Bilder transportiert, die – überspitzt gesagt – rückwärtsgerichtete Identitäten beschwören, professionsbezogene Territorien verfestigen, einen aufgeklärten Paternalismus stützen, der Selbstüberschätzung Vorschub leisten und den Glauben bestärken, dass PatientInnen immer abhängig sein werden.

Wenn die Prozesse effizienter geworden sind und uns Algorithmen und Roboter unterstützen, ja 80% der Ärzte ersetzbar geworden sind, werden die Prozessführer genau hinschauen, wofür die Zeit und die Menschen dann noch eingesetzt werden.

Auffallend an der Debatte über die digitale Transformation im Gesundheitswesen ist, dass die Risiken (2) deutlich seltener thematisiert werden als die Opportunitäten. KI (KI) und damit arbeitende Instrumente werden meist als ökonomische Notwendigkeit oder als technologische Chance dargestellt. Einerseits wird ins Feld geführt, dass neue Anwendungen, neue Geräte, neue IT-Applikationen, neue Algorithmen etc. die Produktions- und Personalkosten senken, Daten wirkungsvoller verknüpfen sowie Sicherheit und Nutzen verbessern. Anderseits wird als Chance verkündet, dass Health-Professionals dann wieder mehr Zeit haben werden für die Kranken. (3)

Während bei der Effizienzsteigerung die Erwartungen erfüllt werden, ist es wohl naiv zu glauben, dass sich in den gestrafften Prozessen wieder Komfortzonen und eine neue Gemütlichkeit etablieren können. Structure follows strategy gilt auch hier. Wenn die Prozesse effizienter geworden sind und uns Algorithmen und Roboter unterstützen, ja 80% der Ärzte ersetzbar geworden sind, werden die Prozessführer genau hinschauen, wofür die Zeit und die Menschen dann noch eingesetzt werden. Maschinen übernehmen alles Repetitive; Zeit für Zuwendung kann hinzugekauft werden.

Formatiert für die Welt von gestern, oder ready for tomorrow?

Das mag erschreckend kulturpessimistisch klingen. Erschreckend ist allerdings auch, dass wir uns nicht fragen, wie es denn uns selber dabei gehen könnte. In freudiger Erwartung der Zukunft wird nicht erkannt, vergessen oder verdrängt, dass die Algorithmen und Automatismen auch unser Verhältnis untereinander als Menschen und Professionals grundlegend verändern werden.

Der Autor mit dem humanoiden Roboter Sophia.

Meine Begegnung mit der fast-menschlichen SOPHIA (5, 6) war irritierend – auch wenn sie in Talkshows brilliert (7), gibt es bei diesem Wesen noch deutlichen Verbesserungsbedarf. Etwa beim Wahrnehmen des Gegenübers, beim Verstehen, bei der Interaktion. Es fehlt ihr schlicht an Soft Skills, um eine halbwegs ansprechende Konversation zu führen (siehe Video). Sie mag gesprächig sein, aber aktuell ist es ein Sozialexperiment. Es ist noch kein Gegenüber, das in der Lage ist, dank KI das aktuellste Wissen zu mobilisieren, zu vernetzen, zu vermitteln und zum Wohle von Patienten einzusetzen. Mit ihr kann man noch nicht kooperieren, um argumentativ Lösungswege zu erörtern, um Fehler zu vermeiden, um den Nutzen und die Qualität zu verbessern oder um zu guten Entscheidungen zu gelangen. Die EntwicklerInnen sagen denn auch, das sei erst KI im Kindheitsstadium.

https://www.youtube.com/watch?v=THU-Mg6H994

Trotzdem: wenn dereinst Algorithmen die Entscheide fällen und uns humanoide Roboter und menschenförmige Maschinenwesen umgeben (oder sich um uns kümmern), werden dies Nachfahren von Sophia oder anderen ähnlichen Geschöpfen (9, 10) sein. Dass es dann nicht immer der Mensch ist, der die Maschine steuert, liegt auf der Hand. Wahrscheinlicher ist ein Zusammenwirken von Menschen, Maschinen und KI, welches neue Regeln für unser Handeln und auch unsere Handlungsspielräume einführt.

Bis dahin bleibt noch Zeit, weil die digitale Transformation nicht schlagartig eintritt, sondern ein schleichender Prozess ist. Im Interesse einer nachhaltigen Personalsicherung und Vermeidung eines Praxisschocks muss die Bildung vom Silodenken und einer Formatierung wegkommen, welche auf unmittelbare Einsatzfähigkeit abzielt. Es gilt, den Blick zu erweitern, um zukunftsfähig zu werden: Statt nur technisches Knowhow und instrumentelle Skills zu vermitteln, müssen die Effekte der Digitalisierung und der KI auf unsere Identität, die zwischenmenschliche Interaktion und das professionelle Handeln in der Ausbildung thematisiert werden. Interprofessionalität, die aktuell forciert wird, umfasst auch den Einbezug dieser Wesen und Supportsysteme.

Auf der strategischen Ebene müssen Zweck und Ziele mehrjähriger professionsbezogener Formung, exklusiven Wissens und ausgrenzender Identitätsbildung radikal hinterfragt werden. Es ist höchst unwahrscheinlich, dass Menschen, die grundlegend andere Vorstellungen von der Praxis haben, in Intensivseminaren mit der Virtual-Reality-Brille in die digitalisierte Arbeitswelt hineingeführt werden können und diese bedenkenlos akzeptieren.

 


Referenzen

  1. https://www.obsan.admin.ch//sites/default/files/publications/2016/obsan_71_bericht.pdf
  2. NZZ Zukunftsdebatte vom 17. Oktober 2018, bei der eine der Leitfragen die Möglichkeiten adressierte, wie und ob wir in der Lage sein werden, fortgeschrittene System der künstlichen Intelligenz im Zaum zu halten
  3. Beitrag in Ausgabe 4/2018 des Fachmagazins Arzt-Spital-Pflege, S. 22ff
  4. https://medicalfuturist.com
  5. https://www.cnbc.com/2018/06/05/hanson-robotics-sophia-the-robot-pr-stunt-artificial-intelligence.html 
  6. https://www.youtube.com/watch?v=AEpiOrFoNtI
  7. Sequenz: Schauspieler Will Smith hat ein Date mit einem Humanoiden
  8. https://futurism.com/images/top-10-humanoid-robots/
  9. https://www.youtube.com/watch?v=clg_9fpEI8c
PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Wenn Bots ihre eigene Sprache entwickeln

Das Internet of Things (IoT), die Cloud oder intelligente Roboter und Sensoren werden unser Leben und unsere Arbeit tiefgreifend verändern. Maschinen und Bots erkennen aus grossen Datenmengen Muster und ziehen ihre – zum Teil auch falschen – Schlüsse daraus. Über die Möglichkeiten und Risiken der künstlichen Intelligenz schreibt unser Autor.

Als «Internet of Things» (IoT), oder zu Deutsch: «Internet der Dinge», werden technische Geräte bezeichnet, welche mit einem Netzwerk wie z.B. dem Internet oder Cloud-Diensten verbunden sind und über dieses miteinander kommunizieren oder Informationen zur Verfügung stellen. Ein solches IoT-Gerät kann beispielweise eine Webcam, ein Netzwerk-Speicher (NAS) oder ein Sensor einer Heizung sein, der mit einem Server für den Datenaustausch verbunden ist. Des Weiteren befinden sich aber auch «intelligente Lichtschalter», Kühlschränke oder Smart-TV’s darunter, die mit einer Netzwerkschnittstelle an ein internes Netzwerk oder Internet angeschlossen sind.

Zuhause angreifbar

Diese Art von «intelligenten respektive smarten» IoT-Geräten wie beschrieben, werden in Scharen und hoher Geschwindigkeit ans Internet angeschlossen. Dadurch steigt exponentiell nicht nur die Anzahl der Kommunikationsteilnehmer im Internet, sondern auch die Anzahl der Gefahrenquellen verwundbarer Geräte, welchen von kriminellen Hackern missbraucht werden können. Oftmals werden IoT-Geräte verwendet, um massenhaft Spam und Phishing E-Mails zu versenden oder Angriffe zu initiieren, indem mehrere solcher Geräte in einen Verbund, . in ein Bot-Netzwerk zusammengeschlossen werden, um einen zielgerichteten Angriff auf ein prominentes Ziel durchzuführen. Ein noch grösseres Gefahrenpotenzial geht von IoT Geräten aus, auf welche über das Internet mit Standard-Zugangsdaten (Benutzername und Passwort) zugegriffen werden kann. Solche Geräte können grundsätzlich von jedem gefunden werden, beispielsweise mit einem Port-Scan oder einer Suchmaschine wie Google oder Shodan aber auch von Programmen, die auf künstlicher Intelligenz basieren.

Anders als bei früheren industriellen Umwälzungen können sich IoT Geräte, Sensoren, Maschinen und Roboter heute auch «menschliche» Fähigkeiten aneignen, von denen man einst dachte, sie seien nicht durch künstliche Intelligenz (KI) ersetzbar. Das Zauberwort heisst maschinelles Lernen aufgrund generierter Daten und klassifizierten Informationen. Bereits heute werden diese Milliarden von Datensätzen in künstlichen, neuronalen Netzwerken (ANN) verarbeitet und ausgewertet.

Politik ist überfordert

«Ich denke, dass es weltweit einen Bedarf für vielleicht fünf Computer gibt» – diesen Satz soll IBM-Chef Thomas J. Watson 1943 gesagt haben. Der deutsche Trendforscher Matthias Horx prophezeite 2005, dass in fünf bis sechs Jahren niemand mehr von Facebook reden wird. Damals hatte das US-amerikanische Unternehmen Facebook weltweit ca. 6 Millionen Nutzer. Im Juli 2017 verkündete CEO Mark Zuckerberg, dass das soziale Netzwerk mehr als zwei Milliarden Menschen seine Plattform nutzen. Also knapp 25 bis 30 Prozent der Weltbevölkerung verfügt über einen Benutzer-Account bei Facebook und füttert Tag für Tag das soziale Netzwerk mit Informationen und persönlichen Daten wie Fotos und Videos.

Der Anhörungsmarathon von Facebook-Chef Mark Zuckerberg im US-Kongress nach dem jüngsten Datenskandal mit Cambridge Analytica in London hat den Eindruck bestätigt, dass die Politik keine Antwort hat auf technische Herausforderungen. Die Politik ist überfordert mit Themen wie Datenschutz oder ethischen Grundsätzen im Umgang mit Künstlicher Intelligenz. Beispielweise hat Google seit 2017 für das sogenannte Projekt «Maven» dem US-Verteidigungsministerium Technologie basierend auf künstlicher Intelligenz geliefert. Die Technologie aus dem Projekt soll das Videomaterial, das unbewaffnete US-Überwachungsdrohnen aufzeichnen, effizienter als bisher nach militärisch bedeutungsvollen Objekten absuchen. Das, so fürchten Kritiker, könne der Beginn einer neuen Art von elektronischer Kriegsführung sein, in der Maschinen und nicht mehr Menschen resp. 0 oder 1 entscheiden, wer und was ein militärisches Ziel sei. Nach diversen Mitarbeiterprotesten ist Google aus dem US-Militärprojekt «Maven» ausgestiegen. Es gibt erhebliche Bedenken bei der KI und der Ethik – wie weit wollen wir gehen?

Bots entwickeln eigene Codewörter

Die US-Militärforschungseinrichtung DARPA führte erste Hacking Turniere durch, wo Computer autonom ohne Menschen Systeme aufspüren und nach Schwachstellen untersuchen, diese ausnutzen und zugleich eine Update resp. Patch auf binary code Ebene selbstständig entwickeln. Diese Art von Technologie kann für Militärs und Terroristen ebenfalls interessant sein und in den falschen Händen grossen Schaden anrichten.

Forscher bei Facebook haben ein AI-System abgeschaltet, als sie realisierten, dass sich zwei Bots in einer Sprache «unterhielten», die für das Forscherteam nicht verständlich war. Den beiden Bots – «Bob» und «Alice» – wurde Englisch beigebracht und trainiert, doch sie entwickelten mit der Zeit eine eigene, «effizientere Sprache». Was für die Facebook Forscher wie zusammengewürfelte Wortabfolgen klingt, hatte für die Bots eine tatsächliche Bedeutung. AI-Bots weichen von verständlicher Sprache ab und erfinden selbständig Codewörter. Das Grundproblem bei der Entwicklung von künstlicher Intelligenz verdeutlich dieser Fall sehr gut und zeigt auf, dass im Endeffekt noch nicht verstanden wird, wie «Künstliche Intelligenz» effektiv denkt und dass in diese internen, komplexen Prozesse von AI-Bots noch nicht hineingesehen werden kann.

Risiken – obskur oder real?

Auch die Risiken bei Künstlichen Intelligenz (KI) dürfen nicht unterschätzt werden. Heute schlägt die KI uns Urlaubsziele vor, macht Wetterprognosen und gibt Staumeldungen an. Das Geld der Pensionskassen wird durch eine KI an den Finanzmärkten angelegt. Beim Online-Shopping wird die passende Ware aufgrund unseres Kaufverhaltens angezeigt und beim Online-Dating die vermeintlich beste Partnerin oder den vermeintlich besten Partner in Form eines Treffers (Match) eruiert. Kriminelle Hacker bedienen sich ebenfalls dieser Technologie.

Wollen wir das wirklich und welche Institutionen überwachen die Algorithmen? Was würde passieren, wenn plötzlich die Algorithmen und KI ihr Wissen gegen unseren Willen einsetzen. Ein unkontrolliertes Ausmass an Risiken wäre die Folge – sind wir als Menschen ab diesem Zeitpunkt überhaupt in der Lage, adäquate Gegenmassnahmen einzuleiten und können wir ohne Weiteres einfach den Stecker ziehen oder ist es dann zu spät – sind obskure Skynet-Szenarien wie aus dem Film Terminator mit Arnold Schwarzenegger nur Fiktion oder irgendwann bald Realität?

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.