Wenn Bots ihre eigene Sprache entwickeln

Das Internet of Things (IoT), die Cloud oder intelligente Roboter und Sensoren werden unser Leben und unsere Arbeit tiefgreifend verändern. Maschinen und Bots erkennen aus grossen Datenmengen Muster und ziehen ihre – zum Teil auch falschen – Schlüsse daraus. Über die Möglichkeiten und Risiken der künstlichen Intelligenz schreibt unser Autor.

Als «Internet of Things» (IoT), oder zu Deutsch: «Internet der Dinge», werden technische Geräte bezeichnet, welche mit einem Netzwerk wie z.B. dem Internet oder Cloud-Diensten verbunden sind und über dieses miteinander kommunizieren oder Informationen zur Verfügung stellen. Ein solches IoT-Gerät kann beispielweise eine Webcam, ein Netzwerk-Speicher (NAS) oder ein Sensor einer Heizung sein, der mit einem Server für den Datenaustausch verbunden ist. Des Weiteren befinden sich aber auch «intelligente Lichtschalter», Kühlschränke oder Smart-TV’s darunter, die mit einer Netzwerkschnittstelle an ein internes Netzwerk oder Internet angeschlossen sind.

Zuhause angreifbar

Diese Art von «intelligenten respektive smarten» IoT-Geräten wie beschrieben, werden in Scharen und hoher Geschwindigkeit ans Internet angeschlossen. Dadurch steigt exponentiell nicht nur die Anzahl der Kommunikationsteilnehmer im Internet, sondern auch die Anzahl der Gefahrenquellen verwundbarer Geräte, welchen von kriminellen Hackern missbraucht werden können. Oftmals werden IoT-Geräte verwendet, um massenhaft Spam und Phishing E-Mails zu versenden oder Angriffe zu initiieren, indem mehrere solcher Geräte in einen Verbund, . in ein Bot-Netzwerk zusammengeschlossen werden, um einen zielgerichteten Angriff auf ein prominentes Ziel durchzuführen. Ein noch grösseres Gefahrenpotenzial geht von IoT Geräten aus, auf welche über das Internet mit Standard-Zugangsdaten (Benutzername und Passwort) zugegriffen werden kann. Solche Geräte können grundsätzlich von jedem gefunden werden, beispielsweise mit einem Port-Scan oder einer Suchmaschine wie Google oder Shodan aber auch von Programmen, die auf künstlicher Intelligenz basieren.

Anders als bei früheren industriellen Umwälzungen können sich IoT Geräte, Sensoren, Maschinen und Roboter heute auch «menschliche» Fähigkeiten aneignen, von denen man einst dachte, sie seien nicht durch künstliche Intelligenz (KI) ersetzbar. Das Zauberwort heisst maschinelles Lernen aufgrund generierter Daten und klassifizierten Informationen. Bereits heute werden diese Milliarden von Datensätzen in künstlichen, neuronalen Netzwerken (ANN) verarbeitet und ausgewertet.

Politik ist überfordert

«Ich denke, dass es weltweit einen Bedarf für vielleicht fünf Computer gibt» – diesen Satz soll IBM-Chef Thomas J. Watson 1943 gesagt haben. Der deutsche Trendforscher Matthias Horx prophezeite 2005, dass in fünf bis sechs Jahren niemand mehr von Facebook reden wird. Damals hatte das US-amerikanische Unternehmen Facebook weltweit ca. 6 Millionen Nutzer. Im Juli 2017 verkündete CEO Mark Zuckerberg, dass das soziale Netzwerk mehr als zwei Milliarden Menschen seine Plattform nutzen. Also knapp 25 bis 30 Prozent der Weltbevölkerung verfügt über einen Benutzer-Account bei Facebook und füttert Tag für Tag das soziale Netzwerk mit Informationen und persönlichen Daten wie Fotos und Videos.

Der Anhörungsmarathon von Facebook-Chef Mark Zuckerberg im US-Kongress nach dem jüngsten Datenskandal mit Cambridge Analytica in London hat den Eindruck bestätigt, dass die Politik keine Antwort hat auf technische Herausforderungen. Die Politik ist überfordert mit Themen wie Datenschutz oder ethischen Grundsätzen im Umgang mit Künstlicher Intelligenz. Beispielweise hat Google seit 2017 für das sogenannte Projekt «Maven» dem US-Verteidigungsministerium Technologie basierend auf künstlicher Intelligenz geliefert. Die Technologie aus dem Projekt soll das Videomaterial, das unbewaffnete US-Überwachungsdrohnen aufzeichnen, effizienter als bisher nach militärisch bedeutungsvollen Objekten absuchen. Das, so fürchten Kritiker, könne der Beginn einer neuen Art von elektronischer Kriegsführung sein, in der Maschinen und nicht mehr Menschen resp. 0 oder 1 entscheiden, wer und was ein militärisches Ziel sei. Nach diversen Mitarbeiterprotesten ist Google aus dem US-Militärprojekt «Maven» ausgestiegen. Es gibt erhebliche Bedenken bei der KI und der Ethik – wie weit wollen wir gehen?

Bots entwickeln eigene Codewörter

Die US-Militärforschungseinrichtung DARPA führte erste Hacking Turniere durch, wo Computer autonom ohne Menschen Systeme aufspüren und nach Schwachstellen untersuchen, diese ausnutzen und zugleich eine Update resp. Patch auf binary code Ebene selbstständig entwickeln. Diese Art von Technologie kann für Militärs und Terroristen ebenfalls interessant sein und in den falschen Händen grossen Schaden anrichten.

Forscher bei Facebook haben ein AI-System abgeschaltet, als sie realisierten, dass sich zwei Bots in einer Sprache «unterhielten», die für das Forscherteam nicht verständlich war. Den beiden Bots – «Bob» und «Alice» – wurde Englisch beigebracht und trainiert, doch sie entwickelten mit der Zeit eine eigene, «effizientere Sprache». Was für die Facebook Forscher wie zusammengewürfelte Wortabfolgen klingt, hatte für die Bots eine tatsächliche Bedeutung. AI-Bots weichen von verständlicher Sprache ab und erfinden selbständig Codewörter. Das Grundproblem bei der Entwicklung von künstlicher Intelligenz verdeutlich dieser Fall sehr gut und zeigt auf, dass im Endeffekt noch nicht verstanden wird, wie «Künstliche Intelligenz» effektiv denkt und dass in diese internen, komplexen Prozesse von AI-Bots noch nicht hineingesehen werden kann.

Risiken – obskur oder real?

Auch die Risiken bei Künstlichen Intelligenz (KI) dürfen nicht unterschätzt werden. Heute schlägt die KI uns Urlaubsziele vor, macht Wetterprognosen und gibt Staumeldungen an. Das Geld der Pensionskassen wird durch eine KI an den Finanzmärkten angelegt. Beim Online-Shopping wird die passende Ware aufgrund unseres Kaufverhaltens angezeigt und beim Online-Dating die vermeintlich beste Partnerin oder den vermeintlich besten Partner in Form eines Treffers (Match) eruiert. Kriminelle Hacker bedienen sich ebenfalls dieser Technologie.

Wollen wir das wirklich und welche Institutionen überwachen die Algorithmen? Was würde passieren, wenn plötzlich die Algorithmen und KI ihr Wissen gegen unseren Willen einsetzen. Ein unkontrolliertes Ausmass an Risiken wäre die Folge – sind wir als Menschen ab diesem Zeitpunkt überhaupt in der Lage, adäquate Gegenmassnahmen einzuleiten und können wir ohne Weiteres einfach den Stecker ziehen oder ist es dann zu spät – sind obskure Skynet-Szenarien wie aus dem Film Terminator mit Arnold Schwarzenegger nur Fiktion oder irgendwann bald Realität?

AUTOR/AUTORIN: Stefan Mettler

Stefan Mettler ist CEO der Cryptron Security GmbH. Er arbeitet seit über 15 Jahren als professioneller Hacker und Sicherheitsberater.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.