Beiträge

Ist Augmented Intelligence die KI der Zukunft?

In der Vergangenheit wurde künstliche Intelligenz (Artificial Intelligence, AI) oftmals so dargestellt, dass sie eines Tages den Menschen ersetzen könnte. Heute geht man davon aus, dass dies in absehbarer Zukunft nicht so sein wird, und auch nicht so sein sollte. Deswegen reden wir nun von Augmented Intelligence statt Artificial Intelligence.

Lange galt es als Ziel der künstlichen Intelligenz, den Menschen für vielerlei Aufgaben komplett zu ersetzen. Beispielsweise wurde das Gebiet wie folgt umschrieben [1]:

“The art of creating machines that perform functions that require intelligence when performed by people.” (1990) [2]

“The study of how to make computers do things at which, at the moment, people are better” (1991) [3]

Dieser Ansatz zielt darauf ab, Computerprogramme zu erstellen, welche nicht nur repetitive Aufgaben erledigen können, sondern auch Aufgaben, welche eine intellektuelle Leistung von einer Person erfordern. Der Turing Test [4], welcher 1950 von Alan Turing entwickelt wurde, definiert eine operationale Definition von künstlicher Intelligenz. Ein Benutzer*in interagiert in schriftlicher Form mit einem Computerprogramm und stellt Fragen. Ist der/die Benutzer*in nach Abschluss dieses Tests nicht in der Lage, zu unterscheiden, ob die Antworten von einem Computer oder einer Person kamen, so gilt der Turing Test als bestanden.

Es kam jedoch in den letzten Jahren auch oft die Frage auf, ob eine solche künstliche Intelligenz überhaupt zielführend und wünschenswert ist.

Digitale Ethik

Es existiert eine ganze Reihe von Berichten, welche nahelegen, dass die Quellen, welche für das Training von Software verwendet werden, nicht immer fair sind. Beispielsweise konnte aufgezeigt werden, dass es in Wikipedia Artikeln Unterschiede gibt, wie Frauen oder Männer beschrieben werden [5] [6]. Forscher in den USA konnten zeigen, dass über Jahre ein Analyseprogramm zur Risikoberechnung für Straftäter*innen verwendet wurde, welches die afroamerikanische Bevölkerung benachteiligt [7]. Bei einem grossen Tech Unternehmen wurde nachgewiesen, dass die Software, welche das Einstellungsverfahren neuer Mitarbeitenden erleichtern sollte, unfair gegenüber Frauen war [8]. Daneben gibt es noch viele weitere Beispiele, und das Thema digitale Ethik hat es auf Grund dieser zahlreichen Skandale mittlerweile in die breiten Medien geschafft.

Es ist deswegen nötig, dass sich die digitale Gesellschaft der Zukunft damit auseinandersetzt, wie die Zusammenarbeit zwischen der Software und dem Menschen aussehen soll. Menschen und Computer haben komplementäre Fähigkeiten: Computer können sehr gut grosse Mengen von Daten in kürzester Zeit bearbeiten oder effizient Berechnungen durchführen. Dagegen sind sie nicht in der Lage, sich zu reflektieren oder Entscheidungen moralisch zu hinterfragen. Es gibt daher schlichtweg gewisse Tätigkeiten, die ein Computer nicht ausführen kann, und es daher auch nicht tun sollte.

Wenn Sprachassistenten diskriminieren

Auf Grund dieser Diskrepanz der Fähigkeiten muss die Rolle der künstlichen Intelligenz neu gedacht werden. Wir verwenden daher oftmals den Begriff Augmented Intelligenz statt Artificial Intelligence. Dahinter verbirgt sich die Idee, dass der Computer dem Menschen als Werkzeug dient und die menschliche Intelligenz erweitert, nicht aber den Menschen ersetzt [9].

Ein typisches Beispiel einer solchen Zusammenarbeit ist ein Sprachassistent, wie er typischerweise in Smartphones vorhanden ist. Wenn wir diesen auffordern, uns Restaurants in der Nähe anzubieten, so tätigt nicht der Sprachassistent die Entscheidung, wo wir essen werden, sondern liefert uns die benötigten Informationen, eine solche Entscheidung zu treffen.

Sind wir dadurch von den Problemen der digitalen Ethik befreit? Nein, denn es liegt an uns, dem Menschen, die Entscheidung zu treffen und die Verantwortung dafür zu tragen. Daher liegt es auch an uns, die gelieferten Daten kritisch zu hinterfragen und diese Reflexion mit in die Entscheidung einzubeziehen. Im Beispiel des Restaurants könnte es beispielsweise sein, dass uns ein bestimmtes Restaurant, obwohl es viel näher ist als die anderen, gar nicht angeboten wurde. Wir kommen also auch im Rahmen der Augmented Intelligence nicht drum herum, uns aktiv und regelmässig mit den generierten Daten und Entscheidungsvorschlägen unserer Tools auseinanderzusetzen.

Ethik muss mitprogrammiert werden

Die Herausforderung der nächsten Jahre liegt darin, diese neue Form der Zusammenarbeit in die Prozesse der Softwareentwicklung und -anwendung zu integrieren, mit allen erforderlichen Massnahmen zur Vorbeugung und Kontrolle der damit verbunden Risiken im Bereich Ethik und Diskriminierung. Es müssen entsprechende Prozesse eingeplant werden, im Projekt selber, und auch regelmässig beim Betrieb der Software. Die konkreten Fragen, die evaluiert werden müssen, sind auf Grund der vielen verschiedenen Anwendungsgebiete und auch der verschiedenen Technologien (Video, Audio, Text, usw.) und verschiedenen Arten von Problemen (Formen der Diskriminierung, unethische Entscheidungen) nicht einheitlich und müssen in jedem Projekt spezifiziert und evaluiert werden, analog zu einem traditionellen Risikomanagement.

Beim Konzept der Augmented Intelligence übernimmt der Mensch die Verantwortung und hat daher die aktive Aufgabe, die Entscheidungsvorschläge der Maschine zu reflektieren und kritisch zu hinterfragen. Nur so sind wir gewappnet für eine erfolgreiche Zusammenarbeit zwischen Menschen und Maschinen in der digitalen Gesellschaft der Zukunft.


Referenzen

  • [1] Russell, S. & Norvig, P., 2010. Artificial Intelligence – a modern approach. Upper Saddle River (New Jersey): Pearson.
  • [2] Kurzweil, R., 1990. The Age of Intelligent Machines. s.l.:MIT Press.
  • [3] Rich, E. & Knight, K., 1991. Artificial Intelligence (Second Edition). s.l.:McGraw-Hill.
  • [4] Turing, A. M., 2004. The essential turing. s.l.:Oxford University Press.
  • [5] Wagner, C., Graells-Garrido, E., Garcia, D. & Menczer, F., 2016. Women through the glass ceiling: gender asymmetries in Wikipedia. EPJ Data Science, 5(1).
  • [6] Jadidi, M., Strohmaier, M., Wagner, C. & Garcia, D., 2015. It’s a man’s Wikipedia? Assessing gender inequality in an online encyclopedia. s.l., s.n.
  • [7] Larson, J., Mattu, S., Kirchner, L. & Angwin, J., 2016. How we analyzed the COMPAS recidivism algorithm. ProPublica, May.
  • [8] Jeffrey, D., 2018. Amazon scraps secret AI recruiting tool that showed bias against women, San Fransico, CA: Reuters.
  • [9] https://digitalreality.ieee.org/publications/what-is-augmented-intelligence
PDF erstellen

Ähnliche Beiträge

How art institutions can manage their metadata

Virtual assistants need descriptive metadata to work correctly. But many art organizations are poorly positioned with it. To close this gap, a Canadian start-up has developed a tool for art organizations to manage their metadata, writes our author Gregory Saumier-Finch.

Context

Discoverability is changing. We are using screens and virtual assistants, driven by AI, to plan our leisure time. In order to participate in this AI shift, events and artistic productions need descriptive metadata. Without the data, even the best algorithms will fail, and the “long tail” of the internet will disappear.

Most arts organizations are poorly placed to benefit from the surge in AI discoverability. While some large arts organizations have technical skills to generate descriptive metadata on their websites, our research shows that there are only a handful. However, for the roughly 2000 non-profit arts organizations in Canada, it is not economically viable for each organization to hire a web developer with the skills needed to publish descriptive metadata.

This leaves a majority of arts organizations both unaware (not realizing that their event data is missing) and vulnerable (being mis-represented by 3rd parties who do generate descriptive metadata.)

Current status quo of the AI boom has shifted control away from arts organizations and into the hands of 3rd parties who end up controlling the descriptive metadata that appears in search engines and virtual assistants. A quick Google search for “events near me” will show event metadata sourced from meetup sites (meetup.ca), event aggregators (theatrelandltd.com, eventful.com), restaurant aggregators (restomontreal.ca), tourism sites (rove.me), and ticketing platforms (ticketmaster.ca, StubHub.com.) Notably there is almost a complete absence of authoritative metadata sourced from the art organizations that are actually producing or presenting the events.
The gap is widening between those companies that have descriptive metadata, such as the commercial film industry, and those that don’t. Cluttered webpages with semi-structured data are carefully and painstakingly curated on web sites by arts organizations. However, there is a trend of diminishing returns, as fewer and fewer people use the websites of arts organizations to learn “what’s happening near me”. We are at a turning point in on-line discoverability where structured and linked open data is becoming the prerequisite for the current generation of findable events. Linked Open Data provides value for both human and machine. If we can close the gap by converting arts organization websites into actionable linked open data, then arts organizations will be well positioned to benefit from the AI boom, and people will be able to ask their virtual assistant “What’s showing near me?” and get an authoritative answer.

Footlight

Footlight is a tool developed by Culture Creates, a Canadian tech-startup specializing in the cultural sector, and designed for arts organizations (meaning all stakeholders ranging from individuals to supporting arts organizations) to manage their descriptive metadata.
Footlight has the following design goals:

  • A zero-setup tool designed for arts organizations with a one-hour learning curve.
  • Entity extraction from websites currently managed by arts organizations, but without having to change the website itself (technical changes to websites are often unrealistic due to lack of technical skills within the arts organization). “Entity extraction” refers to the process by which unstructured or semi-structured data is transformed into structured data.
  • Entity linking with external knowledge graph artsdata.ca and wikidata.org. Federated queries create a rich set of information presented to the user to help disambiguate extracted entities.
  • Email notification and issue tracking to manage daily changes to metadata (descriptions, dates, tickets, links to people, venues, performances and performance works, etc.).
  • A community input mechanism to further enrich and interlink metadata while maintaining authority and traceability when multiple “truths” emerge.
  • An inclusive system (multiple points of view) reflecting the diversity present in the arts sector.
  • A publishing tool to push linked open data to multiple platforms including the arts organization’s own website, external knowledge graphs and traditional databases.

Vision of Artsdata.ca Knowledge Graph

Artsdata.ca is a Canadian performing arts knowledge graph started in 2019 with the help of the government of Canada, several arts organizations and Culture Creates.

It has multiple sources of data including existing structured data, manually entered data, as well as data aggregated by trusted third parties. artsdata.ca was started in parallel with Footlight and, at the time of writing this article, is still in its infancy.

Footlight uses data from the artsdata.ca knowledge graph extensively. The knowledge in artsdata.ca is the key component that enables Footlight to do entity detection, entity extraction and name resolution. The more complete artsdata.ca, the more cross referencing and error detection performed, the more accurately Footlight can do its work.

Data structured, linked and validated through Footlight is also fed back into artsdata.ca.

While the governance of artsdata.ca is still to be decided, Culture Creates proposes putting this valuable mass of metadata into an innovative model of collective ownership involving arts organizations across Canada in the form of a platform cooperative.

Culture Creates seeks to shift the existing power of closed exclusive data access presently held by multinational tech companies to one that is open and accessible for the arts in Canada. And with access to valuable metadata, the arts will be able to generate and capitalize on new opportunities. It is a proposed digital vision designed to better position the Canadian arts sector to seize opportunities, innovate, develop, amplify and over time transform organizational models.

2018 Pilot Project

In the summer of 2018 the first cohort of Canadian arts organizations was launched with 8 members from several provinces. Footlight was able to extract 90% of the events from participating websites, and structure the descriptive event metadata using schema.org with all the mandatory and recommended properties documented by Google (https://developers.google.com/search/docs/data-types/event). Footlight also added additional properties such as linking a subset of venues, people and organizations to artsdata,ca knowledge graph and wikidata.org.

By the end of the first pilot project, Footlight was publishing linked open data to artsdata.ca and to several of the participating arts organizations’ websites.

To publish data on arts organizations’ websites, the Footlight “code snippet” was used to inject JSON-LD into the appropriate event web page. In one case, the Footlight “code snippet” was added by the digital marketing manager using Google Tag Manager (without having to touch the website HTML). In another case, the “code snippet” was added to the HTML header by the organization’s website provider. The pilot ended with 100% of the events being published and updated daily on artsdata.ca but only some participants installing the “code snippet” for publishing event data on their respective websites.

Benefits

The benefits for the participating arts organizations can be divided into 2 areas: the first area is improved organic search engine optimization (SEO), and the second area is increased data circulation.

1. In the first area of benefits, there was an observed improvement in Google Search for those companies using the “code snippet” to publish structured data on their webpages. Search appearance of events in Google was enhanced with new Rich results, Event listings, and Event details (terminology of Google Search Console). Illustrations 1 and 2 below show the impact on Google search for Canadian Stage. Canadian Stage is an arts organization that participated in the pilot project and succeeded in placing the Footlight “code snippet” on their website. Footlight was able to publish event metadata that was picked up by Google to improve Google Search appearance and Google’s Knowledge Graph.

Illustration 1

Illustration 2

2. In the second area of benefits, a 3rd party data client (regional governmental agency) was successful in adding event listings from Footlight as a single source, without having to manually enter multiple events from multiple arts organizations’ websites. A weekly import of data ensured that the data remained up to date.

Lessons learned

Lesson 1

Arts organizations found it difficult to install the Footlight “code snippet”.
To address this, Culture Creates will explore ways to further simplify the “code snippet” installation. One hypothesis is that a “chat bot” could help. The “chat bot” would guide users through the steps of installing the code snippet by presenting different options (Google Tag Manager, CMS, contact their web provider) and then depending on the option selected, provide contextual assistance (i.e. compose emails to communicate with web provider), and finally complete the installation with a system test to confirm proper operation.

Lesson 2

Listing sites, such as the city of Laval in Quebec, would like Footlight to be integrated into their existing calendar system.
To address this, Culture Creates is working on a project of integration with a local calendar software called Caligram (caligram.org). The API would enable users of the 3rd party calendar system to perform all of Footlights features from within the user interface of the 3rd party calendar system.

Conclusion

At Culture Creates, we understand that for any digital transformation to occur – in any sector – a critical mass of structured data is needed. We developed Footlight technology to structure and create linked open data for the arts. We have chosen a narrow focus on performance listings and descriptive event metadata.

Beyond the benefits of improved find-ability and efficiency, when a critical mass of Canadian arts organizations adopt linked open data, not only will the arts sector become the digital authority of its own metadata, it generates a valuable knowledge graph of usable and connected metadata.

If we are truly interested in shifting the existing power from multinational tech companies to a more fair and accessible digital environment for stakeholders in the arts in Canada, we must start with a focus on developing solutions and tools that are as easy to use and understand, that remove complexity, and are made available to all stakeholders in the arts. This is paramount in helping the sector retain agency over their individual and collective metadata.


Join a Culture Creates Pilot Project

Culture Creates continues to develop pilot projects with arts organizations, and is currently looking for new cohorts in Canada. If you are a Canadian arts organizations interested in taking part, please contact tammy@culturecreates.com.

Interested arts organizations will be asked to form a cohort that includes several members. Each cohort will have to provide and/or seek joint funding, which will be used for on-boarding and supporting the cohort, as well as cover the cost of Footlight.

The lack of descriptive metadata is an international concern. Currently, Culture Creates is focused on Canada because the Canadian government has developed policies and earmarked funding to support the digital transformation of its arts and culture sector. However, in the future, we envision expanding to the international community.

Want to know more? Contact tammy@culturecreates.com.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Die Zukunft des Internets liegt “im” Nutzer

Das Internet, wie wir es kennen, wird sich rasant verändern und noch mehr als bisher Gegenstände integrieren. Neue Software wird das HTTP ablösen, Satelliten werden die neue Hardware und das kognitive Netz ist für unseren Autor eine logische Folge der bisherigen Entwicklung, schreibt er in seinem Ausblick.

Ein Bauer im entlegensten Winkel der Erde hat heute Zugriff zu mehr, besseren und aktuelleren Informationen als der mächtigste Mensch der Welt vor 30 Jahren. Und das ist nicht alles: Die beiden können heute binnen von Sekunden miteinander kommunizieren, selbst wenn sie durch Kontinente oder gar das All voneinander getrennt sind. Das Internet ist das wirkmächtigste Kapitel in der Einswerdung der Menschheit bisher.

Dementsprechend wirft seine Zukunft gewichtige Fragen auf:

  • Werden wir im Zuge noch direkterer Kommunikation miteinander verschmelzen?
  • Vielleicht sogar mit der Technik selbst?
  • Was könnte dies nach sich ziehen und was könnte es vereiteln?

Ich werde diese Fragen beantworten und eine Prognose geben, wo uns eine der folgenreichsten Erfindungen der Menschheit als nächstes hintragen wird. Dazu gehe ich auf die, meiner Meinung nach, aussichtsreichsten Entwicklungen für die nächsten 5-10 Jahre und der nächsten 10-20 Jahre ein. Beginnen wir mit der Antwort auf die Frage: Wohin führt uns das Internet als nächstes?

Das Internet 2.0

Das Internet besteht aus Software, dem Inhalt des Netzes und Hardware, dem Trägermedium dieser Informationen. Die für mich aktuell vielversprechensten Projekte (1) auf Softwareseite für die direkte Zukunt des Internets sind:

  1. Das InterPlanetary File System, ein blockchainbasiertes, dezentralisierendes Webprotokoll, welches aus jedem Rechner einen individualisierbaren Knotenpunkt macht und vielleicht das HTTP beerbt.
  2. Das Projekt Solid vom Internetbegründer Tim Berners Lee, welches u.a. ermöglicht, persönliche Daten genau an die Services zu geben, denen man wirklich Zugang ermöglichen möchte und so die Datensilos von Facebook und Co. zu überwinden.
  3.  Serval, sehr ähnlich dem InterPlanetary File System , hier allerdings auf Smartphone-Ebene, welches so mobil und ohne externe Infrastruktur ganze Landstriche mit Internet versorgen kann.

Auf der Hardwareseite sind für mich zukunftsweisend, vielleicht sogar die nächsten “big things” der digitalen Kommunikation:

  1. Elon Musks SpaceX’s Starlink, ein Verbund aus zehntausenden Kleinstsatelliten, welche in jedem Winkel der Erde Hochgeschwindigkeitsverbindungen schaffen.
  2. Googles Loon, welches ein ähnliches Ziel hat, allerdings mit Ballons anstelle von Satelliten.
  3. Die vielen verschiedenen Freifunk- und Meshnetprojekte, welche jedes internetfähige Gerät zum Teil eines ausfallsicheren, sich kontinuierlich selbstverstärkenden und abhörsicheren Netzwerks macht.

Mit diesen Optionen wird die zweite Hälfte der Menschheit anders, schneller, bequemer und wahrscheinlich sicherer online gehen (2) als nahezu alle Internetnutzer bisher. Ich glaube, vor allem in dezentralen Lösungen liegt die direkte Internet-Zukunft, da diese im direkten Sinne Freiheit und Unabhängigkeit für den Nutzer bedeuten. Sowohl von Internetanbietern, geografischen Gegebenheiten, als auch von Geheimdiensten und Hackern. Die nächsten Schritte des Internets liegen also in den Interessen der Nutzer, nicht mehr in den Interessen der Anbieter. Technologie sei Dank.

So können ganze Kontinente wie z.B. Afrika einfach leapfroggen, d.h. Entwicklungsschritte überspringen und Infrastruktur in viel kürzerer Zeit aufbauen, bzw. direkt darauf aufbauen. Denn sie benötigen schlicht keine grossen Masten, Leitungen und Kabel mehr, sie haben direkt via WiFi und Satellit Zugang in ein oftmals schnelleres Internet als manche Regionen in den westlichen Ländern. (3)

Was nach dem Internet kommt

Googles Entwicklungschef, der berühmte Futurist und Transhumanist Ray Kurzweil, prophezeit seit vielen Jahren eine Verschmelzung des Menschen mit Technologie. Ich sehe den Eintritt dieser Entwicklung nur unter zwei Bedingungen:

  1. Der Nutzen der Verschmelzung überwiegt bei Weitem Kosten und Gefahren.
  2. Die Sicherheit dabei kann gewährleistet werden.

Punkt 1 stellt dabei eine Schwelle dar, die höher ist als die meisten bisherigen, da Menschen schlicht die Grenze ihres Körpers sehr hoch schätzen. Das lässt sich schön an einer simplen Frage verdeutlichen: Wie dringend würden Sie sich das nächste iPhone kaufen wollen, wenn es ausschliesslich in Ihrem Körper funktionieren würde? Wie lang wären wohl die Schlangen und Zeltlinien vor den Applestores, wenn die Nutzung eine Implantierung des Geräts voraussetzen würde? Aber auch abseits des körperlosen Schwarmbewusstseins durch Verschmelzung von Mensch und Technologie gibt es eine logische Fortsetzung des “Human Colossos”, des “Menschenkolosses” (4), die direkte kognitive Kommunikation (5) und die Telepathie (6).

Die Grundlagen dafür legen aktuell u.a. Firmen wie Elon Musks Neuralink. Aber auch jede Firma, die medizinische Technologie kleiner und leistungsfähiger macht, trägt kontinuierlich dazu bei (7). Spätestens ab dem Zeitpunkt, ab dem es möglich ist, sich eine Kappe aufzusetzen und damit ohne Worte mit anderen kommunizieren zu können, sind wir im “cognitive-net”, dem “Hirnnetz” angelangt. Die erste Firma, die diese Kappe produziert, wird sich vor Geld nicht mehr retten können. Die Zukunft des Internets liegt also mehr und mehr im Denken des Nutzers. Der überzeugendste Grund dafür ist die Logik der Kommunikation: Je direkter, schneller und einfacher in der Anwendung, desto besser.

Es gibt neben der Überwindung der eigenen Körpergrenze, wie bereits angesprochen, noch eine weitere elementare Einschränkung: Die Sicherheit. Denn wenn diese Lösungen bedeuten, dass buchstäblich mein Hirn von fremden Hackern übernommen oder beeinflusst werden kann, wird sich dieser Schritt nie vollziehen. Was gilt es also zu tun?

Sicherheit als Fortschrittsgrundlage

Seit Anbeginn der Menschheit gibt es ein Wettrüsten zwischen “Angreifer und Verteidiger”. Wenn die Keule des Angreifers grösser als mein Schild ist, gewinnt er. Dieses Spiel spielen Hacker und Sicherheitsbeauftragte auf der ganzen Welt bis heute. Nur endet dieser Mechanismus spätestens im Geist des Menschen. Denn wer will schon schlecht schlafen, nur weil er vielleicht ein Update seiner Hirnsoftware vergessen haben könnte?

Es gibt meiner Meinung nach nur zwei sinnvolle Garanten für Sicherheit in diesem sensiblen Bereich:

  1. Sicherheitslösungen, welche nur durch Verletzung der Naturgesetze oder der Mathematik angegriffen werden können, wie z.B. mögliche Lösungen innerhalb der (Post-)Quantenkryptographie.
  2. KI-Sandboxen mit selbstlernenden Algorithmen, welche mit hinreichender Genauigkeit das Zielsystem imitieren können.
    Dieses digitale Äquivalent zum mittelalterlichen Vorkoster könnte sämtliche Informationen in sich “aufgehen” lassen und erst nach der Sicherstellung der Gutartigkeit die geprüften Informationen, die richtigen Daten an die richtigen Stellen weiterleiten.

Wie auch immer die Lösungen aussehen werden, bevor die Sicherheit des Geistes beim Anwender nicht sichergestellt werden kann, wird die technologische Telepathie kaum das Internet beerben. Sobald dies jedoch geschehen ist, erleben wir wahrscheinlich schlicht aufgrund der menschlichen Tendenz zu einfachen, bequemen Lösungen den Aufstieg eines Schwarmbewusstseins. Ich bin überzeugt, dass dies schneller passieren wird als die meisten Zurzeit denken.

Fazit

Es gibt momentan eine Vielzahl potenzieller Kandidaten für das Erbe des Internets. Vor allem der schleichende Niedergang (8) von Social Media eröffnet hier eine ganze Reihe fruchtbarer Möglichkeiten (9), auch und vor allem für europäische Lösungen. Mein Favorit für den direkten Nachfolger des Netzes sind dezentrale Netzwerke, da diese einfacher, ausfallsicherer und besser für die Privatsphäre im Netz sind, vor allem aber erstmals “echte” digitale Freiheit und Unabhängigkeit mit sich bringen. Von weiteren Begleitern dieser autarken Lösungen wie Netzneutralität etc. ganz abgesehen.

Technologisch längerfristig, d.h. in den nächsten 10-20 Jahren werden wir wahrscheinlich eine Verschmelzung von Geist und Web erleben – sofern die Sicherheit für alle Beteiligten gewährleistet ist. In der nächsten Stufe des Internets wird es wahrscheinlich keinen Unterschied mehr zwischen Bauer und Präsident geben. Die Menschheit wird das erste Mal in der Geschichte wahrhaftig vereint.


Referenzen

  1. https://www.wired.de/collection/life/dezentral-und-sicher-diese-projekte-zeigen-das-internetder-
    zukunft
  2. http://www.worldometers.info/de/
  3. https://www.tagesschau.de/inland/internet-breitband-101.html
  4. https://www.lifestyleupdated.com/2017/11/20/concept-human-colossus/
  5. https://www.businessinsider.de/nach-dem-tod-von-smartphone-koennte-eine-technologie-kommen-die-alles-bisher-dagewesene-uebertrifft-2018-5
  6. https://de.wikipedia.org/wiki/Telepathie#Telepathie_zwischen_Mensch_und_Maschine
  7. https://www.ted.com/talks/mary_lou_jepsen_could_future_devices_read_images_from_our_
    brains 
  8. https://www.youtube.com/watch?v=m6JTaRNTN0c
  9. https://www.handelsblatt.com/meinung/kommentare/kommentar-die-krise-der-tech-giganten-ist-europas-vielleicht-letzte-chance/23665124.html

 

 

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Wenn humanoide Roboter auch pflegen

Die digitale Transformation wird auffallend einseitig diskutiert. Ausführlich thematisiert werden zwar Effizienz, Kostenreduktion und Sicherheit. Völlig unterbelichtet bleibt jedoch, was das Algorithmisieren mit uns Menschen macht, ausser uns zu ersetzen. Die Berufsbilder passen spätestens dann nicht mehr, wenn menschenförmige Roboter als (verlässlichere) ArbeitskollegInnen das Feld aufmischen – eine kritische Betrachtung unseres Autors.

Erfreulicherweise entscheiden sich viele junge Menschen für Ausbildungen im Gesundheitssektor. Allerdings wird der Bedarf trotz grossen Anstrengungen weit über dem Fachkräftepotenzial liegen: zum einen steigen viel zu viele aus (32% der Ärzte und 46% der Pflegenden; 1) , zum anderen sinkt die Zahl der SchulabgängerInnen. Fehlende Professionals und steigende Kosten zwingen zu Effizienzsteigerungen, ja zur Industrialisierung der Versorgung. Konsequenz: Wer heute in einen Gesundheitsbereich einsteigt, wird humanoide und humanoforme Roboter als Arbeitskollegen haben.

Entsprechend sind disruptive Verschiebungen zu erwarten: Wenn in der industrialisierten Routineversorgung das Lean Management umgesetzt und die gestrafften Prozesse nur noch hochspezialisiertes Knowhow für bestimmte Funktionen benötigen, braucht es dann noch mehrjährige Berufsausbildungen und Professionen mit abgegrenzten Berufsbildern?

Diese weitreichende Grundsatzfrage wird in der Bildung der Gesundheitsberufe nicht gestellt. Eigentlich eine geradezu unethische Unterlassung – hängt davon doch die Perspektive und die Lebensgestaltung von Zehntausenden junger Menschen ab, die eindringlich motiviert werden, möglichst 30 oder 40 Jahre dem Gesundheitswesen zu dienen. Wird die lebenslange Weiterbildung deren Neuausrichtung und Einpassung in die industrialisierten Prozesse richten können? Oder bleiben dann nur noch die Fittesten im völlig umgekrempelten Arbeitsmarkt? Diejenigen, die sich in die verbleibenden Nischen einfügen können, wenn alles automatisiert sein wird, was automatisiert werden kann?

Mehr Zuwendung oder futuristische Sozialromantik?

Im Quervergleich fällt auf, dass im Gesundheitssektor eine konservierende Lernwelt dominiert. Tief verankert ist die Vorstellung, dass die Versorgung von (kranken) Menschen nicht substituierbar ist, weil dies Empathie, Beziehungsarbeit, Dialog und Reflexion erfordert. Ausbildungen investieren viel in die Identitätsbildung. Diese umfasst die sukzessive Anpassung an Normen, berufsrelevante Vorstellungen und Wertorientierungen, aber auch die Formung der Persönlichkeit sowie den Kern und Umfang des Handelns. Durch den Bezug auf Rollenmodelle und Traditionen werden oft idealtypische Bilder transportiert, die – überspitzt gesagt – rückwärtsgerichtete Identitäten beschwören, professionsbezogene Territorien verfestigen, einen aufgeklärten Paternalismus stützen, der Selbstüberschätzung Vorschub leisten und den Glauben bestärken, dass PatientInnen immer abhängig sein werden.

Wenn die Prozesse effizienter geworden sind und uns Algorithmen und Roboter unterstützen, ja 80% der Ärzte ersetzbar geworden sind, werden die Prozessführer genau hinschauen, wofür die Zeit und die Menschen dann noch eingesetzt werden.

Auffallend an der Debatte über die digitale Transformation im Gesundheitswesen ist, dass die Risiken (2) deutlich seltener thematisiert werden als die Opportunitäten. KI (KI) und damit arbeitende Instrumente werden meist als ökonomische Notwendigkeit oder als technologische Chance dargestellt. Einerseits wird ins Feld geführt, dass neue Anwendungen, neue Geräte, neue IT-Applikationen, neue Algorithmen etc. die Produktions- und Personalkosten senken, Daten wirkungsvoller verknüpfen sowie Sicherheit und Nutzen verbessern. Anderseits wird als Chance verkündet, dass Health-Professionals dann wieder mehr Zeit haben werden für die Kranken. (3)

Während bei der Effizienzsteigerung die Erwartungen erfüllt werden, ist es wohl naiv zu glauben, dass sich in den gestrafften Prozessen wieder Komfortzonen und eine neue Gemütlichkeit etablieren können. Structure follows strategy gilt auch hier. Wenn die Prozesse effizienter geworden sind und uns Algorithmen und Roboter unterstützen, ja 80% der Ärzte ersetzbar geworden sind, werden die Prozessführer genau hinschauen, wofür die Zeit und die Menschen dann noch eingesetzt werden. Maschinen übernehmen alles Repetitive; Zeit für Zuwendung kann hinzugekauft werden.

Formatiert für die Welt von gestern, oder ready for tomorrow?

Das mag erschreckend kulturpessimistisch klingen. Erschreckend ist allerdings auch, dass wir uns nicht fragen, wie es denn uns selber dabei gehen könnte. In freudiger Erwartung der Zukunft wird nicht erkannt, vergessen oder verdrängt, dass die Algorithmen und Automatismen auch unser Verhältnis untereinander als Menschen und Professionals grundlegend verändern werden.

Der Autor mit dem humanoiden Roboter Sophia.

Meine Begegnung mit der fast-menschlichen SOPHIA (5, 6) war irritierend – auch wenn sie in Talkshows brilliert (7), gibt es bei diesem Wesen noch deutlichen Verbesserungsbedarf. Etwa beim Wahrnehmen des Gegenübers, beim Verstehen, bei der Interaktion. Es fehlt ihr schlicht an Soft Skills, um eine halbwegs ansprechende Konversation zu führen (siehe Video). Sie mag gesprächig sein, aber aktuell ist es ein Sozialexperiment. Es ist noch kein Gegenüber, das in der Lage ist, dank KI das aktuellste Wissen zu mobilisieren, zu vernetzen, zu vermitteln und zum Wohle von Patienten einzusetzen. Mit ihr kann man noch nicht kooperieren, um argumentativ Lösungswege zu erörtern, um Fehler zu vermeiden, um den Nutzen und die Qualität zu verbessern oder um zu guten Entscheidungen zu gelangen. Die EntwicklerInnen sagen denn auch, das sei erst KI im Kindheitsstadium.

https://www.youtube.com/watch?v=THU-Mg6H994

Trotzdem: wenn dereinst Algorithmen die Entscheide fällen und uns humanoide Roboter und menschenförmige Maschinenwesen umgeben (oder sich um uns kümmern), werden dies Nachfahren von Sophia oder anderen ähnlichen Geschöpfen (9, 10) sein. Dass es dann nicht immer der Mensch ist, der die Maschine steuert, liegt auf der Hand. Wahrscheinlicher ist ein Zusammenwirken von Menschen, Maschinen und KI, welches neue Regeln für unser Handeln und auch unsere Handlungsspielräume einführt.

Bis dahin bleibt noch Zeit, weil die digitale Transformation nicht schlagartig eintritt, sondern ein schleichender Prozess ist. Im Interesse einer nachhaltigen Personalsicherung und Vermeidung eines Praxisschocks muss die Bildung vom Silodenken und einer Formatierung wegkommen, welche auf unmittelbare Einsatzfähigkeit abzielt. Es gilt, den Blick zu erweitern, um zukunftsfähig zu werden: Statt nur technisches Knowhow und instrumentelle Skills zu vermitteln, müssen die Effekte der Digitalisierung und der KI auf unsere Identität, die zwischenmenschliche Interaktion und das professionelle Handeln in der Ausbildung thematisiert werden. Interprofessionalität, die aktuell forciert wird, umfasst auch den Einbezug dieser Wesen und Supportsysteme.

Auf der strategischen Ebene müssen Zweck und Ziele mehrjähriger professionsbezogener Formung, exklusiven Wissens und ausgrenzender Identitätsbildung radikal hinterfragt werden. Es ist höchst unwahrscheinlich, dass Menschen, die grundlegend andere Vorstellungen von der Praxis haben, in Intensivseminaren mit der Virtual-Reality-Brille in die digitalisierte Arbeitswelt hineingeführt werden können und diese bedenkenlos akzeptieren.

 


Referenzen

  1. https://www.obsan.admin.ch//sites/default/files/publications/2016/obsan_71_bericht.pdf
  2. NZZ Zukunftsdebatte vom 17. Oktober 2018, bei der eine der Leitfragen die Möglichkeiten adressierte, wie und ob wir in der Lage sein werden, fortgeschrittene System der künstlichen Intelligenz im Zaum zu halten
  3. Beitrag in Ausgabe 4/2018 des Fachmagazins Arzt-Spital-Pflege, S. 22ff
  4. https://medicalfuturist.com
  5. https://www.cnbc.com/2018/06/05/hanson-robotics-sophia-the-robot-pr-stunt-artificial-intelligence.html 
  6. https://www.youtube.com/watch?v=AEpiOrFoNtI
  7. Sequenz: Schauspieler Will Smith hat ein Date mit einem Humanoiden
  8. https://futurism.com/images/top-10-humanoid-robots/
  9. https://www.youtube.com/watch?v=clg_9fpEI8c
PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Wenn Bots ihre eigene Sprache entwickeln

Das Internet of Things (IoT), die Cloud oder intelligente Roboter und Sensoren werden unser Leben und unsere Arbeit tiefgreifend verändern. Maschinen und Bots erkennen aus grossen Datenmengen Muster und ziehen ihre – zum Teil auch falschen – Schlüsse daraus. Über die Möglichkeiten und Risiken der künstlichen Intelligenz schreibt unser Autor.

Als «Internet of Things» (IoT), oder zu Deutsch: «Internet der Dinge», werden technische Geräte bezeichnet, welche mit einem Netzwerk wie z.B. dem Internet oder Cloud-Diensten verbunden sind und über dieses miteinander kommunizieren oder Informationen zur Verfügung stellen. Ein solches IoT-Gerät kann beispielweise eine Webcam, ein Netzwerk-Speicher (NAS) oder ein Sensor einer Heizung sein, der mit einem Server für den Datenaustausch verbunden ist. Des Weiteren befinden sich aber auch «intelligente Lichtschalter», Kühlschränke oder Smart-TV’s darunter, die mit einer Netzwerkschnittstelle an ein internes Netzwerk oder Internet angeschlossen sind.

Zuhause angreifbar

Diese Art von «intelligenten respektive smarten» IoT-Geräten wie beschrieben, werden in Scharen und hoher Geschwindigkeit ans Internet angeschlossen. Dadurch steigt exponentiell nicht nur die Anzahl der Kommunikationsteilnehmer im Internet, sondern auch die Anzahl der Gefahrenquellen verwundbarer Geräte, welchen von kriminellen Hackern missbraucht werden können. Oftmals werden IoT-Geräte verwendet, um massenhaft Spam und Phishing E-Mails zu versenden oder Angriffe zu initiieren, indem mehrere solcher Geräte in einen Verbund, . in ein Bot-Netzwerk zusammengeschlossen werden, um einen zielgerichteten Angriff auf ein prominentes Ziel durchzuführen. Ein noch grösseres Gefahrenpotenzial geht von IoT Geräten aus, auf welche über das Internet mit Standard-Zugangsdaten (Benutzername und Passwort) zugegriffen werden kann. Solche Geräte können grundsätzlich von jedem gefunden werden, beispielsweise mit einem Port-Scan oder einer Suchmaschine wie Google oder Shodan aber auch von Programmen, die auf künstlicher Intelligenz basieren.

Anders als bei früheren industriellen Umwälzungen können sich IoT Geräte, Sensoren, Maschinen und Roboter heute auch «menschliche» Fähigkeiten aneignen, von denen man einst dachte, sie seien nicht durch künstliche Intelligenz (KI) ersetzbar. Das Zauberwort heisst maschinelles Lernen aufgrund generierter Daten und klassifizierten Informationen. Bereits heute werden diese Milliarden von Datensätzen in künstlichen, neuronalen Netzwerken (ANN) verarbeitet und ausgewertet.

Politik ist überfordert

«Ich denke, dass es weltweit einen Bedarf für vielleicht fünf Computer gibt» – diesen Satz soll IBM-Chef Thomas J. Watson 1943 gesagt haben. Der deutsche Trendforscher Matthias Horx prophezeite 2005, dass in fünf bis sechs Jahren niemand mehr von Facebook reden wird. Damals hatte das US-amerikanische Unternehmen Facebook weltweit ca. 6 Millionen Nutzer. Im Juli 2017 verkündete CEO Mark Zuckerberg, dass das soziale Netzwerk mehr als zwei Milliarden Menschen seine Plattform nutzen. Also knapp 25 bis 30 Prozent der Weltbevölkerung verfügt über einen Benutzer-Account bei Facebook und füttert Tag für Tag das soziale Netzwerk mit Informationen und persönlichen Daten wie Fotos und Videos.

Der Anhörungsmarathon von Facebook-Chef Mark Zuckerberg im US-Kongress nach dem jüngsten Datenskandal mit Cambridge Analytica in London hat den Eindruck bestätigt, dass die Politik keine Antwort hat auf technische Herausforderungen. Die Politik ist überfordert mit Themen wie Datenschutz oder ethischen Grundsätzen im Umgang mit Künstlicher Intelligenz. Beispielweise hat Google seit 2017 für das sogenannte Projekt «Maven» dem US-Verteidigungsministerium Technologie basierend auf künstlicher Intelligenz geliefert. Die Technologie aus dem Projekt soll das Videomaterial, das unbewaffnete US-Überwachungsdrohnen aufzeichnen, effizienter als bisher nach militärisch bedeutungsvollen Objekten absuchen. Das, so fürchten Kritiker, könne der Beginn einer neuen Art von elektronischer Kriegsführung sein, in der Maschinen und nicht mehr Menschen resp. 0 oder 1 entscheiden, wer und was ein militärisches Ziel sei. Nach diversen Mitarbeiterprotesten ist Google aus dem US-Militärprojekt «Maven» ausgestiegen. Es gibt erhebliche Bedenken bei der KI und der Ethik – wie weit wollen wir gehen?

Bots entwickeln eigene Codewörter

Die US-Militärforschungseinrichtung DARPA führte erste Hacking Turniere durch, wo Computer autonom ohne Menschen Systeme aufspüren und nach Schwachstellen untersuchen, diese ausnutzen und zugleich eine Update resp. Patch auf binary code Ebene selbstständig entwickeln. Diese Art von Technologie kann für Militärs und Terroristen ebenfalls interessant sein und in den falschen Händen grossen Schaden anrichten.

Forscher bei Facebook haben ein AI-System abgeschaltet, als sie realisierten, dass sich zwei Bots in einer Sprache «unterhielten», die für das Forscherteam nicht verständlich war. Den beiden Bots – «Bob» und «Alice» – wurde Englisch beigebracht und trainiert, doch sie entwickelten mit der Zeit eine eigene, «effizientere Sprache». Was für die Facebook Forscher wie zusammengewürfelte Wortabfolgen klingt, hatte für die Bots eine tatsächliche Bedeutung. AI-Bots weichen von verständlicher Sprache ab und erfinden selbständig Codewörter. Das Grundproblem bei der Entwicklung von künstlicher Intelligenz verdeutlich dieser Fall sehr gut und zeigt auf, dass im Endeffekt noch nicht verstanden wird, wie «Künstliche Intelligenz» effektiv denkt und dass in diese internen, komplexen Prozesse von AI-Bots noch nicht hineingesehen werden kann.

Risiken – obskur oder real?

Auch die Risiken bei Künstlichen Intelligenz (KI) dürfen nicht unterschätzt werden. Heute schlägt die KI uns Urlaubsziele vor, macht Wetterprognosen und gibt Staumeldungen an. Das Geld der Pensionskassen wird durch eine KI an den Finanzmärkten angelegt. Beim Online-Shopping wird die passende Ware aufgrund unseres Kaufverhaltens angezeigt und beim Online-Dating die vermeintlich beste Partnerin oder den vermeintlich besten Partner in Form eines Treffers (Match) eruiert. Kriminelle Hacker bedienen sich ebenfalls dieser Technologie.

Wollen wir das wirklich und welche Institutionen überwachen die Algorithmen? Was würde passieren, wenn plötzlich die Algorithmen und KI ihr Wissen gegen unseren Willen einsetzen. Ein unkontrolliertes Ausmass an Risiken wäre die Folge – sind wir als Menschen ab diesem Zeitpunkt überhaupt in der Lage, adäquate Gegenmassnahmen einzuleiten und können wir ohne Weiteres einfach den Stecker ziehen oder ist es dann zu spät – sind obskure Skynet-Szenarien wie aus dem Film Terminator mit Arnold Schwarzenegger nur Fiktion oder irgendwann bald Realität?

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

Künstliche Intelligenz ist angreifbar

Künstliche Intelligenz ist ein wesentliches Hilfsmittel, um Cyberangriffe zu entdecken. Sie kann aber auch Gegenstand von Cyberangriffen werden. Wobei solche Angriffe umso bedrohlicher sind, je wichtiger die Rolle ist, die die Künstliche Intelligenz übernimmt. Deshalb ist es wichtig, dass jene, die Künstliche Intelligenz nutzen, auch verstehen, wie sie funktioniert. Nur so kann man sich wappnen gegen Angriffe, die sich die «intelligentesten» Teile des IT-Systems konzentrieren.

Künstliche Intelligenz (KI) kann viele Formen annehmen. Einst verstand man unter KI regelbasierte Systeme. Sie basierten auf für den Menschen nachvollziehbaren Wissensrepräsentationen. Heute verwendet die KI primär komplexe Wissensrepräsentationen, die nicht einfach und direkt für Menschen lesbar sind und auch mit Hilfe von Maschinen nicht in Bezug auf die Qualität ihrer Substanz bewertet werden können. Einziger Massstab ist die Qualität ihrer Entscheide.

Unter anderem wird KI auch genutzt, um Angriffe besser zu erkennen: das heisst um Angriffe frühzeitig zu erkennen ohne dabei allzu viele harmlose Abläufe als potentielle Angriffe zu taxieren. Der traditionelle Ansatz zur Angriffsdetektion sieht vor, dass im System über Architekturelemente eine relativ hohe Ordnung erzeugt wird, so dass «das Böse» aus dem Rahmen und somit schnell auffällt. Mit KI ist die bewusste Einschränkung der Vielfalt der stattfindenden Abläufe weniger wichtig. Denn damit können auch in ungeordneter Vielfalt Muster erkannt werden, die auf Cyber-Angriffe hinweisen.

Problematisch ist nur, dass sich auch Angriffe direkt gegen die KI richten können. Und zwar sowohl im Fall, dass es zur Identifizierung von Cyberangriffen genutzt wird als auch im Fall, dass es für andere geschäftswichtige Aufgaben eingesetzt wird. Je kritischer der Anwendungsbereich ist, desto gefährlicher sind dabei naturgemäss die Angriffe.

Angriffe können sich einerseits direkt die KI-Instrumente richten und sie schwächen. Anderseits können Angriffe identifizierte Schwächen sich bewusst zu nutzen machen und das KI System geschickt täuschen, so dass es falsche Entscheide trifft.

Wenn die KI auf Lernprozessen beruht, kann der Angreifer die Lerndaten zum Lernen so manipulieren, dass eine schwache KI-Lösung resultiert. Er kann aber auch versuchen, die Datenverarbeitung im KI-Instrument zu stören. Dazu kommt, dass auch ohne Angriffe, Teile des Systems physisch bedingt ausfallen können. Weiters können bei fortgesetztem Lernen einst sehr gut funktionierende KI-Werkzeuge wieder viel schlechter werden. All dies ist in der Praxis oft sehr schwer zu erkennen – insbesondere dann nicht, wenn kontextbedingt die Systeme auch im besten Fall Fehler machen.

Um einen erfolgreichen Angriff auf das KI-Instrument zu valorisieren, muss der Angreifer anschliessend das System täuschen. Erkennt er die Schwächen eines noch gar nicht angegriffenen Systems, so kann er auch direkt durch Täuschen des Systems angreifen. Vorstellbar sind auch stochastisch konstruierte Angriffsserien im Fall, dass zwar systemische Defizite, aber keine konkreten Defizite konstruiert wurden. In vielen Fällen entsteht durch das Täuschen grosser Schaden.

Wer also KI einsetzt, sollte sich bewusst sein, dass er damit ein besonders attraktives Ziel für mögliche Angreifer schafft. Darum ist es wichtig, das Funktionieren des KI-Systems zu verstehen und Angriffsmöglichkeiten im Vorhinein zu analysieren! Der positive Nebeneffekt einer solchen Analyse ist, dass auch klar wird, welche Gefahren durch nicht bewusst geschaffene Dysfunktionalitäten entstehen können. Um es plakativ zu formulieren: So wie es nützlich ist, zu überprüfen, ob Mitarbeitende fit für Aufgaben sind und gewillt, im Interesse der Organisation zu handeln, so sind analoge Prüfungen auch für den KI-Einsatz erfolgskritisch!

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.