Wie die Industrie von Machine Learning profitiert

Dass Maschinelles Lernen die Industrie aufmischt, ist nichts Neues. Doch wie reif ist diese Technologie bereits für die breite Anwendung? Und an welchem Punkt stehen wir in ihrer Entwicklung? Am Data Engineering Day der BFH Technik & Informatik vom 7. Mai untersuchten Forscher*innen diese Fragen. Eine Zusammenfassung.

Verarbeiten von Text

Das Feld des Maschinellen Lernens und Künstlicher Intelligenz (KI) erlebt ein enormes Wachstum und liefert immense Möglichkeiten für die Industrie, um Probleme zu lösen. Gleichzeitig wird der Informationsfluss immer grösser und immer unübersichtlicher. Genau mit dieser Herausforderung befasst sich das Unternehmen Anacode und setzt sich zum Ziel, Fortschritte und Entwicklung in diesem Bereich übersichtlich aufzubereiten. Janna Lipenkova, CEO, zeigt, wie ihr Tool zur Anwendung kommt, wenn es darum geht, aktuelle Trends und Themenbereiche zu erkennen. Natural Language Processing (NLP) spielt hier eine grosse Rolle, um verschiedene Textquellen zu analysieren und auszuwerten.

Ein besonders wichtiges Unternehmen, wenn es um NLP geht, ist Cortical.io. Es erlaubt Unternehmen, besonders textaufwändige Aufgaben zu automatisieren und somit viel Zeit zu sparen. Ein Beispiel hierfür ist der Kundendienst eines internationalen Transportunternehmens, welches täglich hunderttausende E-Mails in verschiedenen Sprachen aus verschiedenen Ländern erhält. Mittels NLP kann ausgefiltert werden, welche beantwortet werden müssen. Diese werden anschliessend automatisch kategorisiert, um den Informationen Struktur zu geben. Pablo Gonzalvez Garcia, Director Product Engineering & Customer Success, betont hierbei, wie wichtig bei der Anwendung von AI die Beachtung der Sicherheit von Applikationen und Daten ist.

Im Gesundheitssektor

Wie die Covid-19-Pandemie deutlich gezeigt hat, ist der richtige Umgang mit Daten im Gesundheitssektor elementar. Die Insel Gruppe hat hierfür das Insel Data Science Center (IDSC) gegründet, um das Sammeln und Verarbeiten von Daten für medizinische Zwecke zu ermöglichen. Maschinelles Lernen kommt hier zum Beispiel ins Spiel, um Diagnosen und Analysen zu erstellen, welche die Arbeit von Ärzt*innen unterstützt. Benjamin Ellenberger, Datenwissenschaftler am IDSC, zeigt uns weiterführend, wie das Inselspital Daten eingesetzt hat, um VRE Ausbrüche zu bekämpfen. Hierbei lag der Schwerpunkt auf der Visualisierung von Daten, denn wie Benjamin Ellenberger selber sagt: «A good visualization is worth a thousand insights.» (dt.: Eine gute Visualisierung ist mehr wert als tausend Erkenntnisse.)

Im Finanzwesen

Eine weitere Branche, die stark auf Daten beruht, ist das Finanzwesen. Besonders Investment- und Privatbanken können von Maschinellem Lernen und Künstlicher Intelligenz profitieren. Doch hierfür müssen zunächst diverse Hindernisse überwunden werden. Ein wichtiger Punkt ist hierbei – laut Oana Diaconu, Executive Director Data Science and Analytics an der Wallstreet– dass das Potential von diesen Technologien noch nicht ganz verstanden wurde, was wiederum an ihrer mangelnden Erklärbarkeit liegen könnte. Eine weitere Herausforderung stellt die Regulierung des Bankensektors dar, welche die Vorsicht gegenüber modernen Technologien erklärt. Auf der Seite des Konsumentenschutzes im Finanzsektor ist der Einsatz dieser Technologien allerdings etwas fortgeschrittener, zeigt Prof. Dr. Stavros Zervoudakis, Professor an der NYU. Hier werden zum Beispiel Algorithmen eingesetzt, um potenziell betrügerische Transaktionen ausfindig zu machen. Hierbei sind unausgewogene Datensätze zu finanziellen Transaktionen die grösste Herausforderung; der Analyse und Aufbereitung von Daten gebührt deshalb besondere Aufmerksamkeit.

Ein herausfordernder Prozess

Es fliessen also Unmengen an Daten übers Netz, welche gelagert, bereinigt und verarbeitet werden müssen, um daraus Vorteile gewinnen zu können. Im Bereich des Maschinellen Lernens fliessen 80% der Arbeitszeit in die Datenaufbereitung [1]. Florian Wilhelm, Head of Data Science bei inovex, zeigt uns, wie dieser Prozess am effektivsten gestaltet werden kann. Teams müssen sich zunächst im Klaren darüber sein, was mit den Daten geschehen soll: Wo werden sie abgelegt? Von wo werden die Daten bezogen? Welchen Umfang haben sie? Wer hat Zugriff darauf? All diese Fragen müssen zu Beginn geklärt werden. Eine ebenso wichtige Rolle spielt die Zusammenarbeit zwischen den verschiedenen Teams innerhalb eines Projektes. Man müsse ein Gefühl der gemeinsamen Verantwortung und eines gemeinsamen Ziels schaffen. Spotify diene laut Florian Wilhelm in diesem Bereich als gutes Beispiel.

Was die Forschung bringen wird

Suchverhalten des Menschen

Dass mittlerweile das Verb googeln selbst vom Duden anerkannt ist, sagt bereits genug darüber aus, wie wichtig Suchmaschinen geworden sind. Maschinelles Lernen wird hier mittlerweile auf verschiedene Arten und Weisen verwendet, am bekanntesten ist aber wahrscheinlich das sogenannte ‘Learning to Rank’, wobei die Maschine lernt, welche Suchergebnisse am besten zur getätigten Suche passen. Immer wichtiger wird auch die Spracherkennung, denn die Prozentuale an Suchen, die per Stimme ausgeführt werden, steigt stetig. 2016 waren es zum Beispiel bereits ein Fünftel der gesamten Suchen auf Google [2]. Genau in diesem Feld, also dem menschlichem Suchverhalten, forscht Hideo Joho, Professor an der Universität Tsukuba in Japan. Er sieht künftig die Möglichkeit, Suche zu automatisieren, etwa mit Augmented Reality Brillen. Ein Beispiel hierfür wäre lesen: Hierbei liest die Brille mit, erkennt Wörter, die Benutzer*innen unbekannt sein könnten, und schlägt bereits eine Worterklärung nach, um diese auf dem Display anzeigen zu können, sobald dieses Wort gelesen wird.

Schnittstelle zwischen Menschen und Künstlicher Intelligenz

Das Thema Automatisierung ist auch in Bezug auf Künstliche Intelligenz relevant, denn oftmals ist die Rede von «Mensch gegen Computer», als würden wir in eine Zukunft blicken, in der Maschinen all unsere Aufgaben übernommen haben werden. Werner Greyer, Senior Research Manager AI Interaction für IBM, präsentiert uns den aktuellen Forschungsstand zur Schnittstelle zwischen Mensch und Maschine und zitiert dabei Tom Malone: „Wir haben viel zu viel über Mensch gegen Computer nachgedacht und nicht ansatzweise genug über Mensch und Computer“ [3] [4]. Werner Greyer sieht eine Zukunft, in der die Zusammenarbeit zwischen Menschen und Künstlicher Intelligenz die Norm ist. Hierfür müssen sich aber seiner Meinung nach zwei wichtige Aspekte ändern: Vertrauen [5] und Transparenz. Es muss einfacher möglich sein, das Konzept von Maschinellem Lernen und Künstlicher Intelligenz zu begreifen und zu verstehen, wie diese Modelle Vorhersagen generieren. Auch das Erstellen von solchen Modellen muss erleichtert werden. Ein Ansatz sind sogenannte AutoAI Systeme [6], welche – basierend auf einem gegebenen Datensatz – automatisch Modelle vorschlagen und diese bereits trainieren. Und, wie Tom Malones Zitat ebenfalls erwähnt, sollen menschliche Kompetenzen nicht automatisiert, sondern mittels Technologie erweitert und ergänzt werden.

Mit diesem hoffnungsvollen Abschluss endet der Data Engineering Day. Wir freuen uns über die vermittelten Einblicke und bedanken uns erneut bei allen Referent*innen und Teilnehmer*innen.


Referenzen

  1. A. Ruiz, «The 80/20 data science dilemma,» [Online]. Available: https://www.infoworld.com/article/3228245/the-80-20-data-science-dilemma.html. [Zugriff am 10 05 2021].
  2. Google, [Online]. Available: https://www.thinkwithgoogle.com/marketing-strategies/app-and-mobile/voice-search-statistics/. [Zugriff am 10 05 2021].
  3. J. Guszcza und J. Schwartz, «Superminds: How humans and machines can work together,» Deloitte Review, Nr. 24, January 2019.
  4. Z. e. al., «How much Automation do data scientists need?,» 2021.
  5. D. e. al., «Trust in AutoML: exploring information needs for establishing trust in automated machine learning systems,» IUI, 2020.
  6. W. e. al., «AutoDS: Towards Human-Centered Automation of Data Science,» 2021.

AUTOR/AUTORIN: Tomaso Leoni

Tomaso Leoni absolviert im Rahmen der Informatikmittelschule Bern ein Praktikum an der Berner Fachhochschule am Institute for Data Applications and Security IDAS. Er arbeitet im Bereich von Natural Language Processing.

PDF erstellen

Ähnliche Beiträge

Es wurden leider keine ähnlichen Beiträge gefunden.

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.