Diagnose per KI: Warum Vertrauen der Schlüssel zur Akzeptanz ist
Fehler in der Notfalldiagnostik sind häufig – Künstliche Intelligenz (KI) verspricht, die diagnostische Genauigkeit zu verbessern. Doch bislang begegnen sowohl Patient*innen als auch Ärzt*innen dem Einsatz von KI in der Medizin oft mit Skepsis. Woran liegt das – und wie lässt sich das Vertrauen in KI-gestützte Diagnostik stärken?
KI mit Potenzial – und Akzeptanzproblem
Diagnosen in der Notfallmedizin sind oft mit Unsicherheiten behaftet – in über 12 % der Fälle unterscheiden sich die Ersteinschätzung und die spätere Entlassdiagnose signifikant (Marcin et al., 2023). Künstliche Intelligenz (KI) könnte dazu beitragen, solche Fehler zu reduzieren. (ten Berg et al., 2024), doch Patient*innen und Ärzt*innen misstrauen KI oft noch (Castelo et al., 2019; Li & Wang, 2024; Longoni et al., 2019; Shaffer et al., 2013). Hohe Risiken im Gesundheitswesen verstärken Bedenken um Datensicherheit und menschliche Aufsicht, wobei Vertrauen als Schlüssel für eine höhere Akzeptanz fungiert. In unserer Studie haben wir daher KI-Akzeptanzfaktoren von Patient*innen und Ärzt*innen untersucht.
Was Patient*innen und Ärzt*innen bewegt: Einblicke aus Interviews
In unseren Interviews mit 20 Patient*innen sowie mit 11 Ärzt*innen identifizierten wir Vertrauen, Sicherheit und Aufsicht als zentrale Themen. Patienten und Patientinnen zeigten anfänglich positive Einstellungen zu KI, doch ihr Vertrauen in KI-Diagnosen war gemischt. Hauptbedenken galten der ärztlichen Aufsicht, der Arzt-Patienten-Beziehung (Angst vor reduzierter menschlicher Interaktion), Datensicherheit, Patientensicherheit, Haftung und dem mangelnden Verständnis über KI-Wirksamkeit. Ärzte und Ärztinnen zeigten vorsichtigen Optimismus, sahen Vorteile, waren aber unsicher, ob sie KI-Diagnosen voll vertrauen könnten. Sie teilten ähnliche Vorbehalte: Datensicherheit, Patientensicherheit und Risiko algorithmischer Verzerrungen. Ärzt*innen betonten zudem die Notwendigkeit klarer Vorschriften für KI. Beide Gruppen erkannten das KI-Potenzial, identifizierten aber Vertrauensbarrieren und forderten Aufsicht sowie Evidenz. Patient*innen sorgten sich um die Arzt-Patienten-Beziehung und die mögliche Reduzierung menschlicher Interaktion, Ärzt*innen betonten zudem die Notwendigkeit regulatorischer Rahmenbedingungen.
Die Akzeptanz im Detail: Patient*innen skeptisch, Ärzt*innen abwartend
In zwei weiteren Experimenten untersuchten wir die Akzeptanz von KI in der Diagnostik. Dabei wurden den Teilnehmenden Videos gezeigt, in denen eine Ärztin einen KI-Assistenten benutzte (versus ein medizinisches Fachbuch), um zu einer komplexen Diagnose zu gelangen. Im Patient*innenexperiment mit 214 Teilnehmenden führte der KI-Einsatz zu signifikant weniger Vertrauen in die Ärztin, geringerer Weiterempfehlungsbereitschaft und Akzeptanz zukünftiger KI-Diagnosen. Dies zeigt «Algorithmus-Aversion»: Patienten und Patientinnen misstrauen KI und der Ärztin, die sie nutzt (Castelo et al., 2019). Das Experiment mit 62 Ärztinnen und Ärzten zeigte keine signifikanten Akzeptanzunterschiede zwischen KI- und traditionellen Diagnosehilfsmitteln, wie medizinischen Fachbüchern. Ärzt*innen hatten keine klare Präferenz und misstrauten der KI nicht prinzipiell, sie waren offen für den Einsatz, wenn sie gut funktionierte. Der Unterschied zwischen den beiden Gruppen von Teilnehmenden ist aufschlussreich: Ärzt*innen bewerten Tools nach Leistung und Effizienz (Hsieh, 2023), Patient*innen achten stärker auf die menschliche Beziehung und emotionale Sicherheit.
Wege zur Vertrauensbildung: Praktische Empfehlungen für die KI-Integration
Vertrauen ist zentral für die KI-Akzeptanz in der klinischen Entscheidungsfindung. Selbst bei Vorteilen kann menschliche Skepsis die Einführung von KI verlangsamen. Schlüsselstrategien zur Akzeptanzverbesserung sind:
- Transparenz erhöhen: KI-Systeme benötigen nachvollziehbare Entscheidungspfade, um Vertrauen aufzubauen (Feurer et al., 2021).
- Menschliche Aufsicht sicherstellen: KI kann Ärzt*innen bei der Diagnostik unterstützen, ersetzt sie aber nicht. Ärzt*innen müssen KI-Empfehlungen überwachen. Das mindert Bedenken und wahrt die Arzt-Patienten-Beziehung.
- Datensicherheit und Privatsphäre stärken: Strikter Schutz von Patientendaten und Datenschutz sind essenziell, um Vertrauensbarrieren zu mindern.
- Aufklärung und Kommunikation: Ärzt*innen und Patient*innen müssen über KI geschult und aufgeklärt werden. Klare Kommunikation reduziert Ängste und verbessert das Vertrauen (Hsieh, 2023; Feurer et al., 2021).
- Ethische Standards und Regularien etablieren: Richtlinien für KI-Anwendungen im Gesundheitswesen (z.B. Validierungsanforderungen, Haftungsrahmen) stärken das Vertrauen in den verantwortungsvollen Einsatz.
Fazit und Ausblick: KI verantwortungsvoll gestalten für eine bessere Gesundheit
KI-Akzeptanz im Gesundheitswesen hängt von Technologie, menschlichen Faktoren und Governance ab. Vertrauen ist der zentrale Hebel für eine erfolgreiche Integration, die zu besserer Zusammenarbeit und Diagnoseergebnissen führt. Unser Projekt fördert Gesundheit (UN-Nachhaltigkeitsziel 3), Innovation (SDG 9) und Vertrauen in Institutionen (SDG 16) durch verantwortungsvolle KI-Integration und ethische Rahmenbedingungen. Die KI-Implementierung sollte als iterativer Prozess verstanden werden, der Nutzer*innenfeedback einbezieht und Technologie sowie Rahmenbedingungen verfeinert, um das volle Potenzial der KI zu entfalten und das Vertrauen in das Gesundheitssystem zu stärken.
Literaturverzeichnis
Castelo, N., Bos, M. W., & Lehmann, D. R. (2019), “Task-Dependent Algorithm Aversion,” Journal of Marketing Research, 56(5), 809–825.
Feurer, S., Hoeffler, S., Zhao, M., & Herzenstein, M. (2021). Consumers’ response to really new products: A cohesive synthesis of current research and future research directions. International Journal of Innovation Management, 25(8), 2150092.
Hsieh, P.-J. (2023). Determinants of physicians’ intention to use AI-assisted diagnosis: An integrated readiness perspective. Computers in Human Behavior, 147, 107868.
Li, W., & Wang, J. (2024). Determinants of artificial intelligence-assisted diagnostic system adoption intention: A behavioral reasoning theory perspective. Technology in Society, 78, 102643.
Longoni, C., Bonezzi, A., & Morewedge, C. K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research, 46(4), 455–468.
Marcin, T., Hautz, S. C., Singh, H., Zwaan, L., Schwappach, D. L. B., Krummrey, G., et al. (2023). Effects of a computerised diagnostic decision support tool on diagnostic quality in emergency departments: study protocol of the DDx-BRO multicentre cluster randomised cross-over trial. BMJ Open, 13(3), e072649.
Shaffer, V. A., Probst, C. A., Merkle, E. C., Arkes, Hal R., & Medow, M. A. (2013). Why do patients derogate physicians who use a computer-based diagnostic support system? Medical Decision Making, 33(1), 108–118.
ten Berg, H., van Bakel, B., van de Wouw, L., Jie, K. E., Schipper, A., Jansen, H., et al. (2024). ChatGPT and generating a differential diagnosis early in an emergency department presentation. Annals of Emergency Medicine, 83(1), 83–86.
Über die Studie
Die Studie haben Elisa Konya-Baumbach (BFH Wirtschaft), Gert Krummrey (BFH Technik und Informatik) und Samira Abdullahi (BFH Wirtschaft) durchgeführt und verfasst. Die Studie wird bei der Innovation and New Product Development Conference 2025 (https://www.xcdsystem.com/eiasm/program/k4ssn6u/index.cfm) sowie bei der American Marketing Association Summer Conference 2025 (https://www.ama.org/2025-ama-summer-academic-conference-call-for-papers/) präsentiert.

Dein Kommentar
An Diskussion beteiligen?Hinterlasse uns Deinen Kommentar!