Green ghosted shapes image
Perspectivas

Inteligencia artificial, privacidad de datos y cómo mantener seguros a los pacientes en línea

Por qué es importante


"A medida que evaluamos los riesgos y beneficios de la IA en la atención médica, debemos construir definiciones sólidas y expectativas de responsabilidad y un marco reflexivo sobre cómo se puede utilizar la IA para satisfacer de manera segura y eficaz las necesidades de todos los usuarios".

Cuando pensamos en la experiencia del paciente, normalmente pensamos en la atención clínica presencial. Sin embargo, es importante recordar que el recorrido del paciente suele comenzar en casa, guiado por fuentes de información que se encuentran en línea. Como especialista en marketing digital y defensora de pacientes en materia de salud mental, estoy observando cómo evoluciona este nuevo mundo en tiempo real. Los servicios de salud mental tienen una gran demanda y la inteligencia artificial (IA) se está utilizando para llenar el vacío en la atención.

Al igual que muchas empresas, los servicios de salud mental virtuales recopilan la mayor cantidad de información posible para publicitar a su público objetivo. En marzo de 2023, Cerebral, un servicio de terapia virtual, reveló que había compartido información sanitaria protegida de más de 3 millones de clientes con clientes externos como Facebook, TikTok, Google y otras plataformas en línea. Estos datos incluían información de contacto, fechas de nacimiento, números de seguridad social y resultados de evaluaciones de salud mental. Otra empresa, BetterHelp, llegó a un acuerdo con la Comisión Federal de Comercio de Estados Unidos por una infracción similar.

¿Cuáles son algunas de las consecuencias de esto? Para mí, esto significó que aparecieran anuncios inquietantemente específicos en mis cuentas de redes sociales. Debido a que usé un servicio de terapia virtual que reveló información médica protegida a clientes externos sin permiso, los anunciantes sabían mi edad y mi diagnóstico, y los anuncios generados por inteligencia artificial me prometieron curas instantáneas para una enfermedad con la que he estado viviendo la mayor parte de mi vida.

La urgencia de la publicidad basada en información sanitaria protegida se aprovecha de las personas vulnerables, las presiona para que “compre ahora, antes de que suban los precios” y les promete curas rápidas. Los materiales de marketing hacen referencias vagas a tratamientos “respaldados por investigaciones” sin citar estudios reales. Las aplicaciones de autoservicio de desensibilización y reprocesamiento por movimientos oculares (EMDR) prometen ser tan efectivas para tratar el trastorno de estrés postraumático como la ayuda de un profesional. Tengo la suerte de tener una sólida alfabetización sanitaria y habilidades digitales, pero en los foros en línea en los que participo activamente, veo a muchas personas que caen en estos anuncios.

La creciente demanda de apoyo en materia de salud mental

El informe El estado de la salud mental en Estados Unidos 2023 arroja luz sobre la creciente necesidad de servicios de salud mental:

  • El 21 por ciento de los adultos padecen una enfermedad mental, lo que equivale a más de 50 millones de estadounidenses.
  • El 55 por ciento de los adultos (28 millones) con una enfermedad mental no reciben tratamiento.
  • El 11 por ciento (5,5 millones) de las personas que viven con una enfermedad mental no tienen seguro médico.
  • Para el 23 por ciento de los adultos con una enfermedad mental, los costos les impiden buscar atención.
  • El 11 por ciento de los adultos que se identificaron con dos o más razas informaron tener pensamientos serios de suicidio.
  • Hay 350 personas por cada proveedor de atención de salud mental en Estados Unidos.

En los foros en línea que frecuenta la comunidad de salud mental en los EE. UU., muchas personas expresan una considerable frustración por su falta de acceso a terapia o su insatisfacción con la ayuda que pueden obtener. Algunos han recurrido a la IA como terapeuta, y han abierto sus corazones a Google Bard y ChatGPT, sin inmutarse por el hecho de que lo que escriben va a parar a un lago de datos masivo que se utilizará de formas desconocidas en el futuro.

Algunos servicios de salud mental utilizan la IA para chatear con pacientes que buscan ayuda. A finales de 2022, un servicio lanzó un programa piloto sin dejar claro que los pacientes estaban interactuando con bots. El consentimiento informado de la empresa no estaba claramente delineado y las personas que finalmente se enteraron de que no estaban recibiendo atención de un humano perdieron la confianza en las sesiones. Después de que la empresa, llamada Koko, hiciera público este experimento , se produjeron acalorados debates en las redes sociales. La empresa argumentó que sus servicios no deberían requerir el escrutinio de una junta de revisión institucional porque, entre otras afirmaciones, no tenían la intención de publicar sus hallazgos. Otros argumentaron que un IRB debería haber estado involucrado porque la investigación de Koko involucraba sujetos humanos. Los detractores también expresaron su preocupación por la falta de empatía y matices de la IA y los riesgos potencialmente significativos para los pacientes en crisis.

Los aspectos positivos de la IA en la salud mental

La misma empresa que utilizó bots para hablar con los pacientes se ha asociado con empresas de redes sociales para monitorear el contenido. Su sistema entiende lenguaje codificado (como “su1c1d3” en lugar de “suicidio”) y se comunica con las personas que publican mensajes con contenido sensible, verifica si están en peligro y ofrece conectarlas con recursos para obtener ayuda.

Después de compartir una publicación sobre algo de lo que había aprendido sobre mi diagnóstico, uno de los robots de esta empresa se puso en contacto conmigo y me preguntó si estaba atravesando una crisis. Se comunicaba conmigo cada pocos días para ver si necesitaba hablar con alguien. Si bien no necesitaba ayuda en ese momento, agradecí ver el mensaje, especialmente porque estaba en una plataforma popular entre las comunidades marginadas que con frecuencia sufren acoso y discriminación.

A medida que evaluamos los riesgos y beneficios de la IA en la atención médica, debemos crear definiciones y expectativas sólidas de responsabilidad y un marco reflexivo sobre cómo se puede utilizar la IA para satisfacer de manera segura y eficaz las necesidades de todos los usuarios. Este proceso debe dar la bienvenida a todas las comunidades en el desarrollo y la gestión de estos servicios. Los factores que incluyen lo siguiente ayudarán a garantizar una experiencia segura para el paciente:

  1. Determinar definiciones y roles para la rendición de cuentas en materia de cumplimiento, presentación de informes, supervisión y aplicación.
  2. Involucrar a un amplio conjunto de perspectivas y partes interesadas en la evaluación y gestión de riesgos (3)
  3. Adhiérase a un marco construido sobre un objetivo de confiabilidad .
  4. Proteger a los usuarios de sistemas inseguros o ineficaces.
  5. Diseñar algoritmos de manera equitativa para evitar la discriminación.
  6. Garantice la privacidad de los datos y cree protecciones contra posibles abusos.
  7. Hacer que el proceso de consentimiento informado sea lo suficientemente transparente para que los pacientes comprendan cuándo están interactuando con IA y sus riesgos.
  8. Las opciones de exclusión voluntaria y el acceso a asistencia humana deberían estar disponibles para quienes lo deseen.

En vista de que millones de personas buscan ayuda para su salud mental, existe la oportunidad de convertir la IA en un recurso eficiente y creativo, pero debemos proceder con cautela. Mientras los gigantes tecnológicos y de capital privado invierten dinero en nuevas aplicaciones que pueden hacer promesas ambiciosas, las barreras y las políticas sobre seguridad no pueden ser una idea de último momento. La participación activa de los pacientes que viven con enfermedades mentales será esencial para dar forma a los servicios destinados a ayudarlos.

Lee Frost es gerente de operaciones de marketing de IHI y defensor de los pacientes.

También te puede interesar:

Inteligencia artificial en la atención sanitaria: Peter Lee habla de empatía, empoderamiento y equidad

La generación actual de herramientas de inteligencia artificial: tres consideraciones para los líderes de calidad

Share

*Contenido convertido automáticamente por Google. Aprende más
Traducido por Google