Diagnostic par intelligence artificielle : pourquoi la confiance est la clé de l’acceptation
Les erreurs diagnostiques en situation d’urgence sont fréquentes – l’intelligence artificielle (IA) promet d’améliorer la précision des diagnostics. Pourtant, tant les patient·e·s que les professionnel·le·s de santé restent souvent sceptiques face à son utilisation en médecine. D’où vient cette réticence – et comment renforcer la confiance dans le diagnostic assisté par IA ?
Un potentiel certain – mais un problème d’acceptation
Les diagnostics en médecine d’urgence comportent souvent une part d’incertitude – dans plus de 12 % des cas, l’évaluation initiale diffère sensiblement du diagnostic posé à la sortie (Marcin et al., 2023). L’IA pourrait contribuer à réduire de telles erreurs (ten Berg et al., 2024), mais elle suscite encore de la méfiance, tant chez les patient·e·s que chez les médecins (Castelo et al., 2019 ; Li & Wang, 2024 ; Longoni et al., 2019 ; Shaffer et al., 2013). Les risques élevés dans le secteur de la santé alimentent les préoccupations liées à la sécurité des données et à la supervision humaine – la confiance apparaît ainsi comme un levier central pour une meilleure acceptation. Dans notre étude, nous avons analysé les facteurs d’acceptation de l’IA par les patient·e·s et les médecins.
Ce qui motive patient·e·s et professionnel·le·s de santé : enseignements tirés des entretiens
Nos entretiens qualitatifs avec 20 patient·e·s et 11 médecins ont mis en évidence trois thématiques principales : la confiance, la sécurité et la supervision. Les patient·e·s affichaient une attitude initialement positive à l’égard de l’IA, mais leur confiance dans les diagnostics automatisés était nuancée. Leurs principales préoccupations portaient sur la supervision médicale, la relation médecin-patient (crainte d’une réduction de l’interaction humaine), la sécurité des données, la sécurité des patients, la question de la responsabilité et une compréhension limitée de l’efficacité des systèmes d’IA. Les médecins, quant à eux, faisaient preuve d’un optimisme prudent : ils en reconnaissaient les avantages, mais restaient incertains quant à la fiabilité totale de l’IA. Ils partageaient des préoccupations similaires : sécurité des données, sécurité des patient·e·s et biais algorithmiques. Ils insistaient également sur la nécessité de cadres réglementaires clairs. Les deux groupes percevaient donc le potentiel de l’IA, tout en identifiant des obstacles liés à la confiance et en appelant à davantage de supervision et de preuves scientifiques. Tandis que les patient·e·s s’inquiétaient pour la relation humaine, les médecins réclamaient des conditions-cadres précises pour une utilisation responsable.
Une acceptation différenciée : scepticisme des patient·e·s, attente prudente des médecins
Deux expériences supplémentaires ont permis d’approfondir l’étude de l’acceptation du diagnostic assisté par IA. Les participant·e·s ont visionné des vidéos dans lesquelles une médecin posait un diagnostic complexe à l’aide soit d’un assistant IA, soit d’un manuel médical. Dans l’expérience menée auprès de 214 patient·e·s, le recours à l’IA entraînait une baisse significative de la confiance envers la médecin, une moindre intention de recommandation, ainsi qu’une plus faible acceptation des futurs diagnostics assistés par IA – un phénomène connu sous le nom d’« aversion pour les algorithmes » (Castelo et al., 2019). En revanche, dans l’expérience conduite auprès de 62 médecins, aucun écart significatif n’a été observé entre les deux conditions : leur préférence ne penchait ni pour l’IA, ni pour les outils traditionnels. Les professionnel·le·s de santé ne rejetaient pas l’IA par principe et se déclaraient prêts à l’utiliser, à condition qu’elle fonctionne de manière fiable. Cette divergence est révélatrice : les médecins évaluent les outils selon leurs performances et leur efficacité (Hsieh, 2023), tandis que les patient·e·s sont sensibles à la relation humaine et à la sécurité émotionnelle.
Construire la confiance : recommandations pour une intégration responsable de l’IA
La confiance constitue un facteur décisif dans l’acceptation de l’IA en contexte clinique. Même en présence d’avantages objectifs, le scepticisme humain peut freiner son adoption. Plusieurs stratégies clés peuvent favoriser cette acceptation :
- Renforcer la transparence : les systèmes d’IA doivent offrir des décisions traçables et compréhensibles pour instaurer la confiance (Feurer et al., 2021).
- Garantir une supervision humaine : l’IA doit assister, mais non remplacer les médecins. Ceux-ci doivent superviser les recommandations générées. Cela permet de préserver la relation médecin-patient et de rassurer.
- Assurer la sécurité des données : la protection stricte des données personnelles est indispensable pour lever les freins liés à la confiance.
- Former et informer : patients comme professionnels doivent être sensibilisés et formés à l’usage de l’IA. Une communication claire réduit les craintes et favorise l’acceptation (Hsieh, 2023 ; Feurer et al., 2021).
- Établir des normes éthiques et réglementaires : la mise en place de directives claires (ex. : validation, responsabilité) pour les applications d’IA en santé renforce la confiance dans leur usage responsable.
Conclusion et perspectives : vers une IA responsable au service de la santé
L’acceptation de l’IA en santé dépend de la technologie, des facteurs humains et des cadres de gouvernance. La confiance est le levier central d’une intégration réussie, favorable à la collaboration et à une meilleure qualité diagnostique. Notre projet soutient la santé (ODD 3), l’innovation (ODD 9) et la confiance dans les institutions (ODD 16) à travers une intégration éthique de l’IA. Cette mise en œuvre doit être pensée comme un processus itératif, intégrant les retours des usagers, afin d’ajuster en continu les technologies et les cadres, de libérer le plein potentiel de l’IA et de renforcer durablement la confiance dans le système de santé.
Références
Castelo, N., Bos, M. W., & Lehmann, D. R. (2019), “Task-Dependent Algorithm Aversion,” Journal of Marketing Research, 56(5), 809–825.
Feurer, S., Hoeffler, S., Zhao, M., & Herzenstein, M. (2021). Consumers’ response to really new products: A cohesive synthesis of current research and future research directions. International Journal of Innovation Management, 25(8), 2150092.
Hsieh, P.-J. (2023). Determinants of physicians’ intention to use AI-assisted diagnosis: An integrated readiness perspective. Computers in Human Behavior, 147, 107868.
Li, W., & Wang, J. (2024). Determinants of artificial intelligence-assisted diagnostic system adoption intention: A behavioral reasoning theory perspective. Technology in Society, 78, 102643.
Longoni, C., Bonezzi, A., & Morewedge, C. K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research, 46(4), 455–468.
Marcin, T., Hautz, S. C., Singh, H., Zwaan, L., Schwappach, D. L. B., Krummrey, G., et al. (2023). Effects of a computerised diagnostic decision support tool on diagnostic quality in emergency departments: study protocol of the DDx-BRO multicentre cluster randomised cross-over trial. BMJ Open, 13(3), e072649.
Shaffer, V. A., Probst, C. A., Merkle, E. C., Arkes, Hal R., & Medow, M. A. (2013). Why do patients derogate physicians who use a computer-based diagnostic support system? Medical Decision Making, 33(1), 108–118.
ten Berg, H., van Bakel, B., van de Wouw, L., Jie, K. E., Schipper, A., Jansen, H., et al. (2024). ChatGPT and generating a differential diagnosis early in an emergency department presentation. Annals of Emergency Medicine, 83(1), 83–86.
À propos de l’étude
Cette étude a été menée et rédigée par Elisa Konya-Baumbach (Haute école spécialisée bernoise, BFH Économie), Gert Krummrey (BFH Technique et informatique) et Samira Abdullahi (BFH Économie). Elle sera présentée lors de la Innovation and New Product Development Conference 2025 (programme) ainsi qu’à la American Marketing Association Summer Academic Conference 2025 (appel à communications).
Create PDF

Contributions en tant que RSS
Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !