Green ghosted shapes image
Perspectivas

Inteligencia artificial, privacidad de datos y cómo mantener seguros a los pacientes en línea

Por qué es importante


"A medida que evaluamos los riesgos y beneficios de la IA en la atención sanitaria, debemos crear definiciones y expectativas sólidas de responsabilidad y un marco reflexivo sobre cómo se puede utilizar la IA para satisfacer de forma segura y eficaz las necesidades de todos los usuarios".

Cuando pensamos en la experiencia del paciente, normalmente pensamos en la atención clínica presencial. Sin embargo, es importante recordar que el viaje del paciente a menudo comienza en casa, guiado por fuentes de información que se encuentran en línea. Como especialista en marketing digital y defensor de los pacientes en materia de salud mental, observo cómo evoluciona este nuevo mundo en tiempo real. Los servicios de salud mental tienen una gran demanda y se está utilizando la inteligencia artificial (IA) para llenar el vacío en la atención.

Como muchas empresas, los servicios virtuales de salud mental recopilan la mayor cantidad de información posible para publicitarla ante su público objetivo. En marzo de 2023, Cerebral, un servicio de terapia virtual, reveló que había compartido información de salud protegida de más de 3 millones de clientes con clientes externos como Facebook, TikTok, Google y otras plataformas en línea. Estos datos incluían información de contacto, fechas de nacimiento, números de seguro social y resultados de evaluaciones de salud mental. Otra empresa, BetterHelp, llegó a un acuerdo con la Comisión Federal de Comercio de EE. UU. por una infracción similar.

¿Cuáles son algunas de las consecuencias de esto? Para mí, esto significó que se publicara publicidad inquietantemente específica en mis cuentas de redes sociales. Debido a que utilicé un servicio de terapia virtual que divulgaba información de salud protegida a clientes externos sin permiso, los anunciantes conocían mi edad y mi diagnóstico, y los anuncios generados por IA me prometieron curas instantáneas para una afección con la que he vivido la mayor parte de mi vida.

La urgencia de la publicidad basada en información sanitaria protegida se aprovecha de las personas vulnerables, las presiona para que “compren ahora, antes de que suban los precios” y les promete curas rápidas. Los materiales de marketing hacen referencias vagas a tratamientos “respaldados por investigaciones” sin citas de estudios reales. Las aplicaciones de autoservicio de desensibilización y reprocesamiento de los movimientos oculares (EMDR) prometen ser tan efectivas para tratar el trastorno de estrés postraumático como la ayuda de un profesional. Tengo la suerte de tener sólidos conocimientos sobre salud y conocimientos digitales, pero en los foros en línea en los que participo veo a muchas personas que caen en estos anuncios.

La demanda cada vez mayor de apoyo a la salud mental

El informe El estado de la salud mental en Estados Unidos 2023 arroja luz sobre una necesidad cada vez mayor de servicios de salud mental:

  • El 21 por ciento de los adultos padecen una enfermedad mental. Esto equivale a más de 50 millones de estadounidenses.
  • El 55 por ciento de los adultos (28 millones) con una enfermedad mental no reciben tratamiento.
  • El 11 por ciento (5,5 millones) de los que viven con una enfermedad mental no tienen seguro médico.
  • Para el 23 por ciento de los adultos con una enfermedad mental, los costos les impiden buscar atención.
  • El 11 por ciento de los adultos que se identificaron con dos o más razas informaron pensamientos serios de suicidio.
  • Hay 350 personas por cada proveedor de atención de salud mental en los EE. UU.

Muchos en los foros en línea frecuentados por la comunidad de salud mental en los EE. UU. expresan una frustración considerable por su falta de acceso a la terapia o insatisfacción con la ayuda que pueden obtener. Algunos han recurrido a la IA como terapeuta, abriendo su corazón a Google Bard y ChatGPT, sin inmutarse por el hecho de que lo que escriben va a un lago de datos masivo para ser utilizado de formas desconocidas en el futuro.

Algunos servicios de salud mental utilizan IA para chatear con pacientes que buscan ayuda. A finales de 2022, un servicio lanzó un programa piloto sin dejar claro que los pacientes interactuaban con robots. El consentimiento informado de la empresa no estaba claramente definido y las personas que finalmente se enteraron de que no estaban recibiendo atención de un ser humano perdieron la confianza en las sesiones. Después de que la empresa, llamada Koko, hiciera público este experimento , se produjeron acalorados debates en las redes sociales. La empresa argumentó que sus servicios no deberían requerir el escrutinio de una junta de revisión institucional porque, entre otras afirmaciones, no tenían intención de publicar sus hallazgos. Otros argumentaron que debería haber estado involucrado un IRB porque la investigación de Koko involucraba a sujetos humanos. Los detractores también expresaron preocupación por la falta de empatía y matices de la IA y los riesgos potencialmente significativos para los pacientes en crisis.

Los aspectos positivos de la IA en la salud mental

La misma empresa que utilizó robots para hablar con los pacientes se ha asociado con empresas de redes sociales para monitorear el contenido. Su sistema comprende lenguaje codificado (como “su1c1d3” en lugar de “suicidio”) y llega a las personas que publican publicaciones con contenido confidencial, verifica si están en peligro y les ofrece conectarlos con recursos para obtener ayuda.

Después de compartir una publicación sobre algo de lo que aprendí sobre mi diagnóstico, uno de los bots de esta empresa se comunicó conmigo y me preguntó si estaba pasando por una crisis. Se comunicaba conmigo cada pocos días para ver si necesitaba hablar con alguien. Si bien no necesitaba ayuda en ese momento, agradecí ver el mensaje, especialmente porque estaba en una plataforma popular entre comunidades marginadas que frecuentemente sufren acoso y discriminación.

A medida que evaluamos los riesgos y beneficios de la IA en la atención médica, debemos construir definiciones y expectativas sólidas de responsabilidad y un marco reflexivo sobre cómo se puede utilizar la IA para satisfacer de manera segura y efectiva las necesidades de todos los usuarios. Este proceso debe acoger a todas las comunidades en el desarrollo y gestión de estos servicios. Los factores que incluyen los siguientes ayudarán a garantizar una experiencia segura para el paciente:

  1. Determinar definiciones y roles para la responsabilidad de cumplimiento, presentación de informes, supervisión y aplicación.
  2. Involucrar a un amplio conjunto de perspectivas y partes interesadas en la evaluación y gestión de riesgos (3)
  3. Adherirse a un marco construido sobre el objetivo de confiabilidad .
  4. Proteger a los usuarios de sistemas inseguros o ineficaces.
  5. Diseñar algoritmos de forma equitativa para prevenir la discriminación.
  6. Garantice la privacidad de los datos e incorpore protecciones contra posibles abusos.
  7. Hacer que el proceso de consentimiento informado sea lo suficientemente transparente para que los pacientes comprendan cuándo interactúan con la IA y sus riesgos.
  8. Las opciones de exclusión voluntaria y el acceso a la asistencia humana deberían estar disponibles para quienes lo deseen.

Con millones de personas que buscan ayuda para su salud mental, existe la oportunidad de hacer de la IA un activo eficiente y creativo, pero debemos proceder con cautela. A medida que los gigantes del capital privado y la tecnología invierten dinero en nuevas aplicaciones que pueden representar grandes promesas, las barreras de seguridad y las políticas sobre seguridad no pueden ser una ocurrencia tardía. La participación activa de los pacientes que viven con enfermedades mentales será esencial para dar forma a los servicios destinados a ayudarlos.

Lee Frost es gerente de operaciones de marketing de IHI y defensor del paciente.

Usted también podría estar interesado en:

Inteligencia artificial en la atención sanitaria: Peter Lee sobre empatía, empoderamiento y equidad

La generación actual de herramientas de IA: tres consideraciones para los líderes de calidad

Share

*Contenido convertido automáticamente por Google. Aprende más
Traducido por Google