Wie Künstliche Intelligenz als Robo-Advisor, Robot Lawyer und Healthbot besser akzeptiert wird

KI-basierte Beratungsleistungen sind im Dienstleistungssektor in aller Munde. Betrachtet man die Evolution von KI-basierten Anwendungen, so hielten zunächst relativ einfache KI-Lösungen Einzug und übernahmen dabei eher unterstützende Rollen entlang verschiedener Schnittstellen.KI unterstützten stark standardisierte und repetitive Aufgaben z. B. der KI-basierter Produktberater bei Vaude oder KI-basierte Supportfunktionen wurden in bestehende App-Angebote eingebunden  wie der Digitalassistent der Schweizerischen Bundesbahnen. Mittlerweile ist es jedoch sogar möglich, auch hochkomplexe, stark individualisierte und interaktionsbasierte Beratungsleistungen wie beispielsweise aus dem Banken-, Rechts- oder Gesundheitswesen mittels lernender und adaptiver KI-Lösungen abzubilden.

Unter der Bezeichnung Robo-Advisor erlangten KI-basierte Berater-Tools in der Finanzbranche große Bekanntheit (Davenport/Bean 2021). Viele renommierte Banken wie die UBS oder die Deutsche Bank AG führten solche während der letzten Jahre ein oder investierten in entsprechende FinTechs. Robo-Advisor sollen die Vermögensverwaltung demokratisieren, indem sie eigenständig Investitionspläne für Privatkund*innen erarbeiten und deren Anlageentscheidungen automatisieren (Jung et al. 2018). Aber auch im Gesundheits- oder Rechtswesen beginnen die Anbieter von professionellen Dienstleistungen zunehmend damit, KI-basierte Beratungsangebote anzubieten (z. B. Babylon Health oder DoNotPay).

Zwischen Effizienz und Vorbehalten

Angesichts des raschen technologischen Fortschritts in den Bereichen Fin-, Health- und Legal-Tech ist zu erwarten, dass KI-basierte Berater-Tools schon bald ihre menschlichen Pendants wie Finanzberater oder Ärzte übertreffen (Esteva et al. 2017; Uhl/Rohner 2018). Bestehende Tools sind heute bereits in der Lage, komplexe Empfehlungen auf der Grundlage der Verarbeitung großer Datenmengen und maschinellen Lernens zu entwickeln. Zukünftige Generationen könnten sogar Aspekte intuitiver und einfühlsamer Intelligenz bei der Beratung von Kund*innen zeigen (Huang/Rust 2020). Dies verspricht für Unternehmen enorme Kosteneinsparungen sowie Effizienzsteigerungen und Skalierbarkeit in der Leistungserbringung. Das sich abzeichnende Spannungsverhältnis zwischen Effizienzsteigerung auf der einen und mangelnder Kundenakzeptanz auf der anderen Seite wird jedoch häufig vernachlässigt. So bestehen beispielsweise bei vielen Bankkund*innen trotz technologischer Reife derzeit noch starke Vorbehalte gegenüber Robo-Advisor im Private Banking, sodass diese noch nicht die erhoffte Breitenwirkung entfalten konnten. In diesem Zusammenhang identifizierte eine vom Bundesrat lancierte Studie zum Thema Künstliche Intelligenz den Aspekt der gesellschaftlichen Akzeptanz als eine wesentliche Herausforderung bei der Umsetzung KI-basierter Angebote in Industrie und Dienstleistung (SBFI 2019).

Im Folgenden sollen unter den Punkten (1) Algorithmusaversion und Vernachlässigung der Einzigartigkeit, (2) Grusel und (3) Bruch von Beziehungsnormen drei mögliche Akzeptanzbarrieren KI-basierter Beratungsleistungen genauer ausgeführt sowie erste Ideen für mögliche Lösungsansätze diskutiert werden.

Algorithmusaversion und Vernachlässigung der Einzigartigkeit

Algorithmusaversion beschreibt die Tatsache, dass Kund*innen trotz der Vorteile und Präzision von Algorithmen weiterhin menschliche Beratung bevorzugen (Logg et al. 2019; Dietvorst et al. 2015). Ein möglicher Erklärungsansatz für dieses Phänomen ist die empfundene Vernachlässigung der Einzigartigkeit (engl. uniqueness neglect). Laut Longoni et al. (2019) basiert das Konzept auf einem Ungleichgewicht zwischen zwei Überzeugungen: Kund*innen nehmen ihre Individualität sehr stark wahr und empfinden sich gegenüber anderen als einzigartig. Maschinen hingegen sind aus ihrer Sicht lediglich in einer standardisierten und programmierten Weise funktionsfähig und würden aufgrund dessen jeden Fall als gleichwertig behandeln. Die Aussicht, von KI-Tools beraten zu werden, kann somit die Sorge aufkommen lassen, dass persönliche und individuelle Eigenschaften, Umstände und Bedürfnisse nur ungenügend berücksichtigt werden.

Den negativen Effekten von Algorithmusaversion und Vernachlässigung der Einzigartigkeit kann durch die Art und Ausgestaltung der Interaktion entgegengewirkt werden. So kann es hilfreich sein, wenn das Beratungs-Tool explizit auf die Einzigartigkeit jedes einzelnen Kunden eingeht, indem die Menge der gesammelten Informationen über den Kunden erhöht oder die Interaktion sehr personalisiert ausgestaltet wird. Des Weiteren haben Studien im Health-Kontext gezeigt, dass Patienten weniger Abneigung gegenüber KI-Anwendungen zeigen, wenn menschliches Fachpersonal weiterhin das letzte Wort hat (Longoni et al. 2019).

Grusel

Laut McAndrew/Koehnke (2016) und Tene/Polonetsky (2015) charakterisiert sich Grusel in zwischenmenschlichen, sozialen Kontexten vor allem durch die Ungewissheit darüber, ob es vom menschlichen Gegenüber etwas zu befürchten gibt und/oder die Unklarheit hinsichtlich der genauen Art einer etwaigen Bedrohung. Weiter kann ein als bedrohlich empfundenes Abweichen von gängigen Normen, beispielsweise in Bezug auf Verhalten und Aussehen, Auslöser von Grusel sein. Übertragen auf KI-Berater gibt es Grund zur Annahme, dass auch ein technisch-geprägtes Gegenüber Gruselgefühle auslösen kann und dass beispielsweise Unklarheiten und Intransparenz hinsichtlich der genauen Vorgänge, welche Berater-Tools bei der Verarbeitung von persönlichen Daten vollführen oder das Abweichen von gängigen Normen, Grusel aufseiten der Nutzer verursachen können (Watson/Nations 2019).

Für Unternehmen ist es daher zentral, vor der Einführung von KI-basierten Beratungsangeboten, die Bedürfnisse der Verbraucher gründlich zu erforschen, um die Grenzen dessen auszuloten, was die Kund*innen als noch akzeptabel empfinden (Ostrom et al. 2019). Dabei können auch Pilottests und Experimente ein gutes Mittel sein, um das Angebot nach dem Launch im ständigen Feedback mit Kund*innen weiterzuentwickeln. Weiter kann die Nutzung hybrider Ausgestaltungsformen, insbesondere in der Übergangsphase direkt nach der Einführung sinnvoll sein, um Grusel zu vermeiden. Auf diese Weise wird ein harter Bruch vermieden und der Kunde kann Schritt für Schritt an die neue Anwendung herangeführt werden. Darüber hinaus kann die Transparenz hinsichtlich der zugrundeliegenden Algorithmen, Prozesse und Entscheidungen (engl.: algorithmic transparency) insbesondere im Bereich lebenswichtiger Entscheidungen ein wichtiger Faktor zur Vermeidung von Grusel sein (Watson/Nations 2019; Watson 2019).

Bruch von Beziehungsnormen

Bisherige Forschung hat gezeigt, dass Unternehmen bestrebt sein sollten, langfristige Beziehungen zu ihren Kund*innen aufzubauen und argumentiert, dass starke Beziehungen zu erhöhter Loyalität und Empfehlungsverhalten führen (z. B. Hennig-Thurau et al. 2002; Mende et al. 2013). Dabei gib es unterschiedliche Arten von Beziehungen, die jeweils spezifische Bedürfnisse mit sich bringen. In diesem Zusammenhang wird im Marketing zwischen Austauschbeziehungen (rational, geschäftsorientiert und einer „quid pro quo“-Logik folgend) und Gemeinschaftsbeziehungen (fürsorglich, uneigennützig und empathisch) unterschieden (z. B. Aggarwal 2009; van Doorn et al. 2017).

Unternehmen sollten vor der Einführung von KI-basierter Beratung ihren Kundenstamm zunächst nach der Art der Beziehung segmentieren und jedem Segment die Ausgestaltungsform anbieten, die den jeweiligen Beziehungsbedürfnissen entspricht. Für Kund*innen, die eine eher gemeinschaftliche Beziehung haben, sollte davon abgesehen werden, menschliche Beratung vollständig durch eine KI zu ersetzen, da dies eine Verletzung der Kundenbeziehung bedeuten könnte. Wenn Kund*innen allerdings in einer Austauschbeziehung sind, ist anzunehmen, dass das Risiko einer Beeinträchtigung der Kundenbeziehung durch die Einführung automatisierter KI-Beratung überschaubar ist.

Diskussion und Ausblick

In den Leitlinien «Künstliche Intelligenz» beschreibt der Bundesrat Künstliche Intelligenz als zentralen Baustein in der Digitalisierung der Wirtschaft (SBFI 2020). Damit KI ihr volles Potenzial entfalten kann, ist es jedoch unerlässlich, neben der reinen Betrachtung der technischen Machbarkeit auch die zentralen Verhaltensmechanismen und Herausforderungen auf Kundenseite zu verstehen. Damit diese nicht zum Fallstrick in Digitalisierungsprojekten werden, müssen Unternehmen die Einführung von KI-basierten Beratungslösungen stets sorgfältig prüfen und neben wirtschaftlichen-technischen Überlegungen auch etwaige verhaltenspsychologische Widerstände auf Kundenseite in ihre Überlegungen einbeziehen. Dabei kann es insbesondere helfen, KI-basierte Angebote zunächst als Experiment zu betrachten. Nach dem Trial-and-Error-Prinzip können Unternehmen dann Schritt für Schritt gemeinsam mit dem Kunden herausfinden, was akzeptiert wird und das Angebot iterativ anpassen und somit den nachhaltigen Erfolg KI-basierter Beratungsangebote gewährleisten.


Dies ist ein Teilauszug aus:

  • Raff S., von Walter B., Wentzel D. (2021) KI-basierte Beratungsleistungen – Ausgestaltungsformen, Herausforderungen und Implikationen. In: Bruhn M., Hadwich K. (eds) Künstliche Intelligenz im Dienstleistungsmanagement. Forum Dienstleistungsmanagement. Springer Gabler, Wiesbaden.

Das komplette Kapitel finden Sie hier.


Referenzen

1. Internetquellen & Links:

  1. Davenport, T. H./Bean, R. (2021): The Pursuit of AI-Driven Wealth Management, in: MIT Sloan Management Review: https://sloanreview.mit.edu/article/the-pursuit-of-ai-driven-wealth-management/, last accessed March 14, 2022.
  2. Staatssekretariat für Bildung, Forschung und Innovation: file:///C:/Users/ras6/Downloads/bericht_idag_ki_d%20(1).pdf
  3. Leitlinien «Künstliche Intelligenz» für den Bund Orientierungsrahmen für den Umgang mit künstlicher Intelligenz in der Bundesverwaltung: file:///C:/Users/ras6/Downloads/Leitlinien%20K%C3%BCnstliche%20Intelligenz%20-%20DE%20(1).pdf

2. Literaturverzeichnis

  1. Aggarwal, P. (2009): Using Relationship Norms to Understand Consumer Brand interactions, in: Handbook of Brand Relationships, S. 24-42.
  2. Dietvorst, B.J./Simmons, J.P./Massey, C. (2015): Algorithm aversion: people erroneously avoid algorithms after seeing them err, in: Journal of Experimental Psychology: General, Vol. 144, No. 1, S. 114-126.
  3. Esteva, A./Kuprel, B./Novoa, R.A./Ko, J./Swetter, S.M./Blau, H.M./Thrun, S. (2017): Dermatologist-level classification of skin cancer with deep neural networks, in: Nature, Vol. 542, No. 7639, S. 115-118.
  4. Hennig-Thurau, T./Gwinner, K.P./Gremler, D.D. (2002): Understanding Relationship Marketing Outcomes, in: Journal of Service Research, Vol. 4, No. 3, S. 230-247.
  5. Huang, M. H./Rust, R. T. (2021): Engaged to a robot? The role of AI in service, in: Journal of Service Research, Vol. 24, No. 1, S. 30-41.
  6. Jung, D./Dorner, V./Glaser, F./Morana, S. (2018): Robo-Advisory, in: Business & Information Systems Engineering, Vol. 60, No. 1, S. 81-86.
  7. Logg, J.M./Minson, J.A./Moore, D.A. (2019): Algorithm appreciation: People prefer algorithmic to human judgment, in: Organizational Behavior and Human Decision Processes, Vol. 151, S. 90-103.
  8. Longoni, C./Bonezzi, A./Morewedge, C.K. (2019): Resistance to Medical Artificial Intelligence, in: Journal of Consumer Research, Vol. 46, No. 4, S. 629-650.
  9. McAndrew, F.T./Koehnke, S.S. (2016): On the nature of creepiness, in: New Ideas in Psychology, Vol. 43, S. 10-15.
  10. Mende, M./Bolton, R.N./Bitner, M.J. (2013): Decoding Customer–Firm Relationships: How Attachment Styles Help Explain Customers› Preferences for Closeness, Repurchase Intentions, and Changes in Relationship Breadth, in: Journal of Marketing Research, Vol. 50, No. 1, S. 125-142.
  11. Ostrom, A.L./Fotheringham, D./Bitner, M.J. (2019): Customer Acceptance of AI in Service Encounters: Understanding Antecedents and Consequences, in: Maglio, P.P./ Kieliszewski, C.A./Spohrer, J.C./Lyons, K./Patrício, L./Sawatani, Y. (Hrsg.): Handbook of Service science, Cham/Switzerland, S. 77-103.
  12. Tene, O./Polonetsky, J. (2015) A Theory of Creepy: Technology, Privacy, and Shifting Social Norms, in: Yale Journal of Law and Technology, Vol. 16, No. 1.
  13. Uhl, M.W./Rohner, P. (2018) Robo-Advisors versus Traditional Investment Advisors: An Unequal Game, in: The Journal of Wealth Management, Vol. 21, No. 1, S. 44-50.
  14. van Doorn, J./Mende, M./Noble, S.M./Hulland, J./Ostrom, A.L./Grewal, D./Petersen, J.A. (2017): Domo Arigato Mr. Roboto, in: Journal of Service Research, Vol. 20, No. 1, S. 43-58.
  15. Watson, H.J. (2019): Update Tutorial: Big Data Analytics: Concepts, Technology, and Applications, in: Communications of the Association for Information Systems, Vol. 44, No.1, S. 364-379.
  16. Watson, H.J./Nations, C. (2019): Addressing the Growing Need for Algorithmic Transparency, in: Communications of the Association for Information Systems, Vol. 45, No. 26, S. 488-510.
Creative Commons Licence

AUTHOR: Stefan Raff

Stefan Raff ist Assistenzprofessor am Institut für Digital Technology Management der BFH Wirtschaft. Zuvor war er Assistenzprofessor an der RWTH Aachen, wo er auch promoviert wurde. Zu seinen aktuellen Forschungsinteressen gehören Innovationsmanagement, Dienstleistungsmarketing und Verbraucherverhalten in digitalen Umgebungen.

Create PDF

Ähnliche Beiträge

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert