Patient Safety and Artificial Intelligence

Sécurité des patients et intelligence artificielle

En janvier 2024, l' IHI Lucian Leape Institute a réuni un groupe d'experts interprofessionnels pour étudier les promesses de l'intelligence artificielle générative (genAI) dans les soins de santé et les risques potentiels pour la sécurité des patients. Le groupe s'est concentré sur trois cas d'utilisation clinique : l'aide à la documentation, l'aide à la décision clinique et les chatbots destinés aux patients. Le rapport qui en résulte présente les conclusions et les recommandations du groupe d'experts.
Image
Patient Safety and Artificial Intelligence

Rapport du groupe d'experts de IHI Lucian Leape Institute

Sécurité des patients et intelligence artificielle

Sécurité des patients et intelligence artificielle

« En tant qu’outil d’assistance, l’IA peut faire gagner du temps aux cliniciens et les aider à évaluer les cas des patients, à améliorer la précision du diagnostic et à réduire les coûts en guidant les cliniciens vers les examens les plus rentables. »

Rapport du groupe d'experts de IHI Lucian Leape Institute

Sécurité des patients et intelligence artificielle

Sécurité des patients et intelligence artificielle

« Bien que l’IA générale puisse améliorer la qualité des soins, réduire les coûts et améliorer l’expérience des patients et des cliniciens, ces outils présentent également des défauts qui peuvent compromettre la sécurité des patients. »

Rapport du groupe d'experts de IHI Lucian Leape Institute

Sécurité des patients et intelligence artificielle

Sécurité des patients et intelligence artificielle

« Les chatbots offrent la possibilité d’élargir l’accès aux soins et de démocratiser l’accès à des informations crédibles sur les soins de santé. »

Rapport du groupe d'experts de IHI Lucian Leape Institute

Sécurité des patients et intelligence artificielle

Sécurité des patients et intelligence artificielle

« La nécessité d’une surveillance humaine des résultats cliniques de l’IA générale posera un défi majeur à la sécurité des patients. »

 

Rejoignez-nous pour les webinaires sur la sécurité des patients et l'IA les 19 août et 11 septembre .

Rapport du groupe d'experts

Sécurité des patients et intelligence artificielle : opportunités et défis pour la prestation de soins

Le panel d'experts de IHI Lucian Leape Institute (LLI) a examiné et discuté trois cas d'utilisation qui mettent en évidence les domaines dans lesquels l'intelligence artificielle générative (genAI) pourrait avoir un impact significatif sur la sécurité des patients : l'aide à la documentation, l'aide à la décision clinique et les chatbots en contact avec les patients. Le panel a également discuté des implications plus larges de genAI pour le domaine de la sécurité des patients et le travail des professionnels de la sécurité.

L’objectif du groupe d’experts était d’identifier les domaines dans lesquels genAI pourrait améliorer la sécurité, de nommer les menaces potentielles et de suggérer des moyens de maximiser les avantages et de minimiser les dommages.

Sur la base de l'examen et de la discussion du groupe d'experts sur les implications de l'IA pour la sécurité des patients, le LLI a publié un rapport, Sécurité des patients et intelligence artificielle : opportunités et défis pour la prestation de soins , qui résume :

  • Pour les trois cas d’utilisation, les avantages potentiels, les risques et les défis de la mise en œuvre de genAI dans les soins cliniques ;
  • Un examen détaillé des stratégies d’atténuation et de surveillance et des recommandations du groupe d’experts ; et
  • Une évaluation des implications de genAI pour le domaine de la sécurité des patients.

Parallèlement à ces recommandations, d’autres garde-fous doivent être mis en œuvre sur la base des préoccupations suivantes mises en évidence par le groupe d’experts :

  • S’appuyer uniquement sur les cliniciens pour vérifier l’exactitude des résultats et des recommandations de l’IA constitue une stratégie de sécurité peu fiable.
  • Le risque de déqualification est élevé et nécessitera des stratégies d’atténuation proactives.
  • Les gains d’efficacité générés par l’IA se traduiront simplement par davantage de tâches assignées aux cliniciens, sans aucun soulagement de leur charge de travail actuelle ni de leur fardeau cognitif.

Principales conclusions

  • GenAI est là pour rester et va grandir et évoluer rapidement.
  • Il existe des avantages et des risques potentiels qui doivent être pris en compte.
  • De nombreuses préoccupations en matière de sécurité concernent la fiabilité, qui découle en partie de l’exactitude et en partie de la difficulté à déterminer quelles informations sont fiables.
  • D’autres questions importantes liées à la sécurité doivent être prises en compte, notamment la transparence, l’importance des relations humaines, l’équité, etc.
  • Certains défis seront relevés par les organismes de réglementation ou d’accréditation au niveau fédéral ; beaucoup seront déterminés au niveau local, notamment par les programmes de gouvernance et de sécurité au sein des systèmes de santé.

Recommandations du groupe d’experts

Les membres du panel sont enthousiastes quant au potentiel des outils genAI pour réduire l’épuisement professionnel et la charge cognitive des cliniciens, faciliter la mise en place de pratiques fondées sur des données probantes, améliorer la précision du diagnostic et potentiellement réduire les coûts. Ils ont également exprimé des inquiétudes quant aux nombreux risques potentiels pour la sécurité des patients qui doivent être identifiés, atténués et surveillés.

Dans le cadre du développement continu des outils genAI et de leur intégration dans la prestation de soins cliniques, le groupe d’experts a formulé les recommandations suivantes :

  • Servir et protéger le patient.
  • Apprenez avec les cliniciens, engagez-les et écoutez-les.
  • Évaluer et garantir l’efficacité de l’IA et l’absence de biais.
  • Établir une gouvernance, une surveillance et des orientations strictes en matière d’IA, tant pour les systèmes de prestation de soins de santé individuels que pour le gouvernement fédéral.
  • Soyez intentionnel avec la conception, la mise en œuvre et l’évaluation continue des outils d’IA.
  • Participer à un apprentissage collaboratif dans tous les systèmes de soins de santé.

Considérations pour les groupes clés

Le rapport comprend également des recommandations spécifiques et des stratégies d’atténuation pour les groupes clés :

  • Patients et défenseurs des patients
  • Les cliniciens
  • Professionnels de la qualité et de la sécurité des patients
  • Systèmes de soins de santé
  • Développeurs GenAI
  • Chercheurs
  • Régulateurs et décideurs politiques


IHI remercie la Fondation Gordon et Betty Moore pour son généreux financement qui a soutenu la convocation du groupe d'experts ainsi que la création et la diffusion du rapport.

Rapport sur la sécurité des patients et l'IA

Le rapport complet comprend l'examen par le panel de trois cas d'utilisation clinique (avantages, risques et défis), des recommandations et des stratégies d'atténuation, une évaluation de l'impact de genAI sur le domaine de la sécurité des patients et des considérations pour les groupes clés.

Voir le rapport
Image
IHI Lucian Leape Institute Report: Patient Safety and Artificial Intelligence

Groupe d'experts

L' IHI Lucian Leape Institute remercie chaleureusement les experts qui ont contribué à ce travail. [L'astérisque (*) désigne les membres du LLI.]

Coprésidents

  • Robert Wachter, docteur en médecine*, professeur et président du département de médecine de l'université de Californie à San Francisco
  • Kaveh Shojania, M.D., professeur et vice-président (qualité et innovation), département de médecine, Université de Toronto

Participants experts

  • Nasim Afsar, docteur en médecine, MBA, MHM, directeur de la santé, Oracle
  • David Bates, docteur en médecine et en sciences, chef du service de médecine interne générale, Brigham and Women's Hospital ; professeur de médecine, Harvard Medical School
  • Leah Binder, MA, MGA, présidente et directrice générale du groupe Leapfrog
  • David Classen, docteur en médecine, MS, professeur de médecine à la faculté de médecine de l'université de l'Utah ; directeur de l'information médicale chez Pascal Metrics
  • Pamela Cipriano, Ph. D., infirmière autorisée, NEA-BC, FAAN, présidente du Conseil international des infirmières; professeure à l'École des sciences infirmières de l'Université de Virginie
  • Patricia Folcarelli, Ph. D., M. A., RN, vice-présidente principale, services de soins aux patients et directrice des soins infirmiers, Beth Israel Deaconess Medical Center
  • Tejal Gandhi, MD, MPH, CPPS, directeur de la sécurité et de la transformation, Press Ganey
  • Eric Horvitz, docteur en médecine et directeur scientifique de Microsoft
  • Gary Kaplan, docteur en médecine, FACMPE*, ancien PDG de Virginia Mason Franciscan Health ; président du Lucian Leape Institute
  • Della Lin, MS, MD, FASA, consultante ; directrice générale, Anesthesia Patient Safety Foundation ; médecin responsable, Hawaii Safer Care
  • Dr Kedar Mate*, président et directeur général de Institute for Healthcare Improvement
  • Muhammad Mamdani, MPH, MA, PharmD, vice-président, science des données et analyse avancée, Unity Health Toronto
  • Patricia McGaffigan, MS, CPPS, vice-présidente, Sécurité des patients, Institute for Healthcare Improvement
  • Geneviève Melton-Meaux, docteure en médecine et directrice de l'analyse et de l'innovation en soins de santé, M Health Fairview
  • Eric Poon, docteur en médecine, MPH, directeur de l'information sur la santé, Duke Health
  • Vardit Ravitsky, Ph. D., présidente et directrice générale du Hastings Center
  • Tina Shah, docteure en médecine, MPH, directrice clinique, Abridge
  • Dr Rod Tarrago, responsable de l'informatique clinique, Amazon Web Services, Academic Medicine
  • Beth Daley Ullem, MBA, cofondatrice de Patients for Patient Safety ; coprésidente du comité directeur de SPS AI ; conseil d'administration de Institute for Healthcare Improvement

Examinateurs externes : experts en sécurité des patients et en IA et membres du LLI*

  • Julia Adler-Milstein, Ph. D., professeure et chef de la division d'informatique clinique et de transformation numérique, Université de Californie, San Francisco
  • Dr Brian Anderson, président et chef de la direction de la Coalition for Health AI (CHAI)
  • Joanne Disch, PhD, RN, FAAN,* Professeur honoraire, École de sciences infirmières de l'Université du Minnesota
  • Michael Howell, docteur en médecine, MPH, directeur clinique et directeur adjoint de la santé, Google
  • Bob Kocher, docteur en médecine, professeur adjoint, département de politique de santé de l'université de Stanford ; chercheur principal non résident, USC Schaffer Center ; associé, Venrock
  • Julianne Morath, BSN, MS, CPPS,* Coach en leadership et consultante ; professeure affiliée, département de médecine, université de Washington, Seattle
  • Charles Vincent, PhD, MPhil*, professeur de psychologie, Université d'Oxford ; professeur émérite de recherche sur la sécurité clinique, Imperial College, Londres
  • Daniel Yang, MD, vice-président, IA et technologies émergentes, Kaiser Permanente


Ressources supplémentaires

Peter Lee speaks about AI in his keynote at the 2023 IHI Forum.


À propos de IHI Lucian Leape Institute

Composé de leaders d'opinion internationaux ayant un intérêt commun pour la sécurité des patients, l' IHI Lucian Leape Institute (LLI) fonctionne comme un groupe de réflexion pour identifier de nouvelles approches pour améliorer la sécurité des patients.

En savoir plus sur LLI