Patient Safety and Artificial Intelligence

Seguridad del paciente e inteligencia artificial

El IHI Lucian Leape Institute convocó a un panel interprofesional de expertos en enero de 2024 para explorar la promesa de la inteligencia artificial generativa (genAI) en la atención médica y los riesgos potenciales para la seguridad del paciente. El panel se centró en tres casos de uso clínico: soporte de documentación, soporte de decisiones clínicas y chatbots de cara al paciente. El informe resultante analiza las conclusiones y recomendaciones del panel de expertos.
Image
Patient Safety and Artificial Intelligence

Informe del panel de expertos del IHI Lucian Leape Institute

Seguridad del paciente e inteligencia artificial

Seguridad del paciente e inteligencia artificial

"Como herramienta de apoyo, la IA puede ahorrar tiempo a los médicos y ayudarlos a evaluar los casos de los pacientes, mejorar la precisión del diagnóstico y reducir los costos al guiar a los médicos hacia las pruebas diagnósticas más rentables".

Informe del panel de expertos del IHI Lucian Leape Institute

Seguridad del paciente e inteligencia artificial

Seguridad del paciente e inteligencia artificial

"Si bien genAI puede mejorar la calidad de la atención, reducir los costos y mejorar las experiencias de los pacientes y los médicos, estas herramientas también tienen fallas que pueden comprometer la seguridad del paciente".

Informe del panel de expertos del IHI Lucian Leape Institute

Seguridad del paciente e inteligencia artificial

Seguridad del paciente e inteligencia artificial

"Los chatbots ofrecen la oportunidad de ampliar el acceso a la atención y democratizar el acceso a información sanitaria creíble".

Informe del panel de expertos del IHI Lucian Leape Institute

Seguridad del paciente e inteligencia artificial

Seguridad del paciente e inteligencia artificial

"La necesidad de supervisión humana de los resultados clínicos de genAI planteará un desafío importante para la seguridad del paciente".

Informe del panel de expertos

Seguridad del paciente e inteligencia artificial: oportunidades y desafíos para la prestación de atención

El panel de expertos del IHI Lucian Leape Institute (LLI) revisó y discutió tres casos de uso que resaltan áreas donde la inteligencia artificial generativa (genAI) podría impactar significativamente la seguridad del paciente: soporte de documentación, soporte de decisiones clínicas y chatbots de cara al paciente. El panel también discutió las implicaciones más amplias de genAI para el campo de la seguridad del paciente y el trabajo de los profesionales de la seguridad.

El objetivo del panel de expertos era identificar áreas donde la genAI podría mejorar la seguridad, nombrar amenazas potenciales y sugerir formas de maximizar los beneficios y minimizar los daños.

Basado en la revisión y discusión del panel de expertos sobre las implicaciones de la IA para la seguridad del paciente, el LLI publicó un informe, Seguridad del paciente e inteligencia artificial: oportunidades y desafíos para la prestación de atención , que resume:

  • Para los tres casos de uso, los posibles beneficios, riesgos y desafíos de la implementación de genAI en la atención clínica;
  • Una revisión detallada de las estrategias de mitigación y monitoreo y las recomendaciones del panel de expertos; y
  • Una evaluación de las implicaciones de genAI para el campo de la seguridad del paciente.

Junto con estas recomendaciones, se deben implementar más medidas de seguridad basadas en las siguientes preocupaciones destacadas por el panel:

  • Depender únicamente de los médicos para verificar la precisión de los resultados y recomendaciones de la IA es una estrategia de seguridad poco confiable.
  • El riesgo de pérdida de habilidades es alto y requerirá estrategias de mitigación proactivas.
  • Las eficiencias impulsadas por la IA simplemente darán como resultado más tareas asignadas a los médicos, sin alivio de su carga de trabajo y carga cognitiva actual.

Resultados clave

  • GenAI llegó para quedarse y crecerá y evolucionará rápidamente.
  • Hay beneficios y riesgos potenciales que deben abordarse.
  • Muchas de las preocupaciones de seguridad se relacionan con la confiabilidad, que se derivan en parte de la precisión y en parte de los desafíos de determinar qué información es confiable.
  • Es necesario considerar otras cuestiones importantes relacionadas con la seguridad, incluida la transparencia, la importancia de la conexión humana, la equidad y más.
  • Algunos desafíos serán abordados por organismos reguladores o de acreditación a nivel federal; mucho estará determinado localmente, en particular por los programas de gobernanza y seguridad dentro de los sistemas de salud.

Recomendaciones del panel de expertos

Los miembros del panel están entusiasmados con el potencial de las herramientas genAI para reducir el agotamiento de los médicos y la carga cognitiva, facilitar la provisión de prácticas basadas en evidencia, mejorar la precisión del diagnóstico y potencialmente reducir los costos. También plantearon preocupaciones sobre numerosos riesgos potenciales para la seguridad del paciente que deben identificarse, mitigarse y monitorearse.

Al continuar con el desarrollo continuo de herramientas genAI y su integración en la prestación de atención clínica, el panel de expertos formuló estas recomendaciones:

  • Servir y salvaguardar al paciente.
  • Aprenda, interactúe y escuche a los médicos.
  • Evaluar y garantizar la eficacia de la IA y la ausencia de sesgos.
  • Establecer una gobernanza, supervisión y orientación estrictas sobre la IA tanto para los sistemas de prestación de salud individuales como para el gobierno federal.
  • Sea intencional con el diseño, implementación y evaluación continua de las herramientas de IA.
  • Participar en el aprendizaje colaborativo en todos los sistemas de atención médica.

Consideraciones para grupos clave

El informe también incluye recomendaciones específicas y estrategias de mitigación para grupos clave:

  • Pacientes y defensores de pacientes
  • Médicos
  • Profesionales de calidad y seguridad del paciente
  • Sistemas de atención de salud
  • Desarrolladores de GenAI
  • Investigadores
  • Reguladores y formuladores de políticas


IHI agradece a la Fundación Gordon y Betty Moore por su generosa financiación que apoyó la convocatoria del panel de expertos y la creación y difusión del informe.

Informe sobre la seguridad del paciente y la inteligencia artificial

El informe completo incluye el análisis por parte del panel de tres casos de uso clínico (beneficios, riesgos y desafíos), recomendaciones y estrategias de mitigación, una evaluación del impacto de genAI en el campo de la seguridad del paciente y consideraciones para grupos clave.

Vista del informe
Image
IHI Lucian Leape Institute Report: Patient Safety and Artificial Intelligence

Únase a nosotros para los seminarios web sobre seguridad del paciente e inteligencia artificial el 19 de agosto y el 11 de septiembre .

Panel de expertos

El IHI Lucian Leape Institute (LLI) agradece a los expertos que contribuyeron a este trabajo. [El asterisco (*) indica miembros de LLI.]

Copresidentes

  • Robert Wachter, MD,* Profesor y presidente del Departamento de Medicina, Universidad de California, San Francisco
  • Kaveh Shojania, MD, profesor y vicepresidente (calidad e innovación), Departamento de Medicina, Universidad de Toronto

Participantes expertos

  • Nasim Afsar, MD, MBA, MHM, director de salud, Oracle
  • David Bates, MD, MS, Jefe de Medicina Interna General, Brigham and Women's Hospital; Profesor de Medicina, Facultad de Medicina de Harvard
  • Leah Binder, MA, MGA, presidenta y directora ejecutiva, The Leapfrog Group
  • David Classen, MD, MS, Profesor de Medicina, Facultad de Medicina de la Universidad de Utah; Director de información médica, Pascal Metrics
  • Pamela Cipriano, PhD, RN, NEA-BC, FAAN, Presidenta, Consejo Internacional de Enfermeras; Profesora, Escuela de Enfermería de la Universidad de Virginia
  • Patricia Folcarelli, PhD, MA, RN, vicepresidenta sénior, servicios de atención al paciente y directora de enfermería, Beth Israel Deaconess Medical Center
  • Tejal Gandhi, MD, MPH, CPPS, director de seguridad y transformación, Press Ganey
  • Eric Horvitz, MD, PhD, director científico, Microsoft
  • Gary Kaplan, MD, FACMPE*, ex director ejecutivo de Virginia Mason Franciscan Health; Presidente, Instituto Lucian Leape
  • Della Lin, MS, MD, FASA, Consultora; Director Ejecutivo, Fundación para la Seguridad del Paciente en Anestesia; Médico líder, Hawaii Safer Care
  • Kedar Mate, MD,* Presidente y director ejecutivo, Institute for Healthcare Improvement
  • Muhammad Mamdani, MPH, MA, PharmD, vicepresidente, ciencia de datos y análisis avanzado, Unity Health Toronto
  • Patricia McGaffigan, MS, CPPS, vicepresidenta, seguridad del paciente, Institute for Healthcare Improvement
  • Genevieve Melton-Meaux, MD, PhD, directora de análisis e innovación en atención, M Health Fairview
  • Eric Poon, MD, MPH, director de información sanitaria, Duke Health
  • Vardit Ravitsky, PhD, presidente y director ejecutivo, The Hastings Center
  • Tina Shah, MD, MPH, directora clínica, Abridge
  • Rod Tarrago, MD, Jefe de Informática Clínica, Amazon Web Services, Medicina Académica
  • Beth Daley Ullem, MBA, cofundadora de Pacientes por la seguridad del paciente; Copresidente del Comité Directivo MSF AI; Junta Directiva, Institute for Healthcare Improvement

Revisores externos: expertos en seguridad del paciente e inteligencia artificial y miembros de LLI*

  • Julia Adler-Milstein, PhD, profesora y jefa de la División de Informática Clínica y Transformación Digital, Universidad de California, San Francisco
  • Brian Anderson, MD, presidente y director ejecutivo, Coalición para la IA en Salud (CHAI)
  • Joanne Disch, PhD, RN, FAAN,* Profesora ad Honorem, Escuela de Enfermería de la Universidad de Minnesota
  • Michael Howell, MD, MPH, director clínico y director adjunto de salud, Google
  • Bob Kocher, MD, profesor adjunto, Departamento de Política Sanitaria de la Universidad de Stanford; Miembro sénior no residente, Centro Schaffer de la USC; Socio, Venrock
  • Julianne Morath, BSN, MS, CPPS,* Asesora y asesora de liderazgo; Facultad afiliada, Departamento de Medicina, Universidad de Washington, Seattle
  • Charles Vincent, PhD, MPhil,* Profesor de Psicología, Universidad de Oxford; Profesor emérito de investigación sobre seguridad clínica, Imperial College, Londres
  • Daniel Yang, MD, vicepresidente, IA y tecnologías emergentes, Kaiser Permanente


Recursos adicionales

Peter Lee speaks about AI in his keynote at the 2023 IHI Forum.


Acerca del IHI Lucian Leape Institute

Compuesto por líderes de opinión internacionales con un interés común en la seguridad del paciente, el IHI Lucian Leape Institute (LLI) funciona como un grupo de expertos para identificar nuevos enfoques para mejorar la seguridad del paciente.

Más información sobre LLI

*Contenido convertido automáticamente por Google. Aprende más
Traducido por Google