Green ghosted shapes image
Percepções

Inteligência Artificial, Privacidade de Dados e Como Manter os Pacientes Seguros Online

Por que isso importa


"À medida que avaliamos os riscos e benefícios da IA ​​na assistência médica, precisamos criar definições e expectativas sólidas de responsabilização e uma estrutura bem pensada de como a IA pode ser usada para atender com segurança e eficácia às necessidades de todos os usuários."

Quando pensamos na experiência do paciente, normalmente pensamos em atendimento clínico presencial. No entanto, é importante lembrar que a jornada do paciente geralmente começa em casa, guiada por fontes de informação encontradas online. Como profissional de marketing digital e defensora de pacientes para a saúde mental, estou observando esse novo mundo evoluir em tempo real. Os serviços de saúde mental são muito procurados, e a inteligência artificial (IA) está sendo usada para preencher a lacuna no atendimento.

Como muitas empresas, os serviços virtuais de saúde mental coletam o máximo de informações possível para anunciar ao seu público-alvo. Em março de 2023, a Cerebral, um serviço de terapia virtual, revelou que havia compartilhado informações de saúde protegidas de mais de 3 milhões de clientes com clientes terceirizados, como Facebook, TikTok, Google e outras plataformas online. Esses dados incluíam informações de contato, datas de nascimento, números de previdência social e resultados de avaliações de saúde mental. Outra empresa, a BetterHelp, fez um acordo com a Comissão Federal de Comércio dos EUA por uma violação semelhante.

Quais são algumas das consequências disso? Para mim, isso significou anúncios perturbadoramente específicos sendo veiculados em minhas contas de mídia social. Como usei um serviço de terapia virtual que divulgou informações de saúde protegidas a clientes terceiros sem permissão, os anunciantes sabiam minha idade e diagnóstico, e anúncios gerados por IA me prometeram curas instantâneas para uma condição com a qual convivi a maior parte da minha vida.

A urgência na publicidade baseada em informações de saúde protegidas tira vantagem de pessoas vulneráveis, as pressiona a "comprar agora, antes que o preço aumente" e promete curas rápidas. Materiais de marketing fazem referências vagas a tratamentos "apoiados por pesquisas" sem citações de estudos reais. Aplicativos de autoatendimento de dessensibilização e reprocessamento por movimento ocular (EMDR) prometem ser tão eficazes no tratamento de TEPT quanto a ajuda de um profissional. Tenho a sorte de ter fortes habilidades de alfabetização em saúde e alfabetização digital, mas nos fóruns online em que participo, vejo muitas pessoas que caem nesses anúncios.

A crescente demanda por suporte à saúde mental

O relatório State of Mental Health in America 2023 lança luz sobre uma necessidade cada vez maior de serviços de saúde mental:

  • 21 por cento dos adultos estão passando por uma doença mental. Isso é equivalente a mais de 50 milhões de americanos.
  • 55% dos adultos (28 milhões) com doenças mentais não recebem tratamento.
  • 11% (5,5 milhões) dos que vivem com uma doença mental não têm seguro de saúde.
  • Para 23% dos adultos com doenças mentais, os custos os impedem de procurar atendimento.
  • 11% dos adultos que se identificaram com duas ou mais raças relataram pensamentos sérios de suicídio.
  • Há 350 indivíduos para cada prestador de cuidados de saúde mental nos EUA.

Muitos nos fóruns online frequentados pela comunidade de saúde mental nos EUA expressam considerável frustração com sua falta de acesso à terapia ou insatisfação com a ajuda que conseguem obter. Alguns se voltaram para a IA como terapeuta, abrindo seus corações para o Google Bard e o ChatGPT, sem se deixarem intimidar pelo fato de que o que eles digitam vai para um enorme data lake para ser usado de maneiras desconhecidas no futuro.

Alguns serviços de saúde mental usam IA para conversar com pacientes que buscam ajuda. No final de 2022, um serviço lançou um programa piloto sem deixar claro que os pacientes estavam interagindo com bots. O consentimento informado da empresa não foi claramente delineado, e as pessoas que eventualmente descobriram que não estavam recebendo cuidados de um humano perderam a confiança nas sessões. Depois que a empresa, chamada Koko, tornou público esse experimento , debates acalorados nas redes sociais se seguiram. A empresa argumentou que seus serviços não deveriam exigir o escrutínio de um conselho de revisão institucional porque, entre outras alegações, eles não pretendiam publicar suas descobertas. Outros argumentaram que um IRB deveria ter se envolvido porque a pesquisa de Koko envolvia sujeitos humanos. Os detratores também expressaram preocupação sobre a falta de empatia e nuance da IA ​​e riscos potencialmente significativos para pacientes em crise.

Os aspectos positivos da IA ​​na saúde mental

A mesma empresa que usou bots para falar com pacientes fez parceria com empresas de mídia social para monitorar conteúdo. O sistema deles entende linguagem codificada — como “su1c1d3” em vez de “suicídio” — e alcança pessoas que publicam posts com conteúdo sensível, verifica se elas estão em perigo e se oferece para conectá-las a recursos para obter ajuda.

Depois de compartilhar uma publicação sobre algumas coisas que aprendi sobre meu diagnóstico, um dos bots dessa empresa entrou em contato comigo e perguntou se eu estava passando por uma crise. Ele verificava comigo a cada poucos dias para ver se eu precisava falar com alguém. Embora eu não precisasse de ajuda na época, gostei de ver a mensagem, especialmente porque eu estava em uma plataforma popular entre comunidades marginalizadas que frequentemente sofrem bullying e discriminação.

À medida que avaliamos os riscos e benefícios da IA ​​na assistência médica, precisamos construir definições e expectativas sólidas de responsabilidade e uma estrutura ponderada de como a IA pode ser usada para atender com segurança e eficácia às necessidades de todos os usuários. Esse processo deve acolher todas as comunidades no desenvolvimento e gerenciamento desses serviços. Fatores que incluem o seguinte ajudarão a garantir uma experiência segura para o paciente:

  1. Determinar definições e funções para responsabilização por conformidade, relatórios, supervisão e execução.
  2. Envolver um amplo conjunto de perspectivas e partes interessadas na avaliação e gestão de riscos (3)
  3. Adote uma estrutura construída com base no objetivo de confiabilidade .
  4. Proteja os usuários de sistemas inseguros ou ineficazes.
  5. Projetar algoritmos de forma equitativa para evitar discriminação.
  6. Garanta a privacidade dos dados e crie proteções contra possíveis abusos.
  7. Torne o processo de consentimento informado transparente o suficiente para que os pacientes entendam quando estão interagindo com IA e seus riscos.
  8. Opções de exclusão e acesso à assistência humana devem estar disponíveis para aqueles que desejarem.

Com milhões de pessoas buscando ajuda para saúde mental, há uma oportunidade de tornar a IA um ativo eficiente e criativo, mas devemos prosseguir com cautela. À medida que o capital privado e os gigantes da tecnologia despejam dinheiro em novos aplicativos que podem fazer promessas grandiosas, as proteções e políticas sobre segurança não podem ser uma reflexão tardia. A participação ativa de pacientes que vivem com doenças mentais será essencial para moldar os serviços destinados a ajudá-los.

Lee Frost é gerente de operações de marketing do IHI e defensor de pacientes.

Você também pode estar interessado em:

Inteligência Artificial na Assistência à Saúde: Peter Lee sobre Empatia, Empoderamento e Equidade

A geração atual de ferramentas de IA: três considerações para líderes de qualidade

Share