Green ghosted shapes image
Percepções

Inteligência Artificial na Assistência à Saúde: Peter Lee sobre Empatia, Empoderamento e Equidade

Por que isso importa

"Um sistema de IA generativo como o GPT-4 é mais inteligente do que qualquer um que você já conheceu e mais burro do que qualquer um que você já conheceu. Acho que ambos presumimos muito e muito pouco sobre seu potencial na área da saúde."
Image
Artificial Intelligence in Health Care Peter Lee on Empathy, Empowerment, and Equity
Foto de Greg Rakozy | Unsplash

Peter Lee, PhD, pode se autodenominar um "techie", mas quando fala sobre inteligência artificial (IA), ele começa da perspectiva de um paciente ou membro da família. Quando perguntado sobre o que mais o entusiasma sobre o potencial da IA ​​para melhorar os cuidados de saúde, o coautor do livro The AI ​​Revolution in Medicine: GPT-4 and Beyond expressou entusiasmo sobre como o uso da IA ​​pode ajudar as pessoas a se sentirem mais fortalecidas em suas interações com o sistema de saúde. Na entrevista a seguir com o Institute for Healthcare Improvement (IHI), Lee discute suas experiências pessoais e profissionais com o GPT-4, uma ferramenta alimentada por IA que processa a fala humana e a converte em texto, construída pela empresa OpenAI apoiada pela Microsoft. Lee é vice-presidente corporativo de pesquisa e incubações na Microsoft e será um dos palestrantes principais no IHI Forum (10 a 13 de dezembro de 2023).

Sobre o uso da IA ​​para se sentir mais fortalecido como paciente e membro da família

Meu exemplo favorito de uso de IA [para me sentir mais fortalecido] é usar o GPT-4 para decodificar informações do sistema de saúde. Eu o uso para entender a explicação do aviso de benefícios que recebo do seguro de saúde fornecido pelo empregador toda vez que alguém da minha família passa por um procedimento ou faz algo. No mês passado, fiz meu exame físico anual e recebi o PDF dos meus exames de hemograma completo quatro dias depois em um e-mail. É apenas uma pilha de números. Ser capaz de dar esse tipo de informação ao GPT-4 e dizer: "Explique isso para mim. Há algo que preciso prestar atenção? Há perguntas que devo fazer ao meu médico?" é incrivelmente fortalecedor.

Sobre o uso de IA para economizar tempo

Grande parte do meu foco está no poder da IA ​​generativa para tornar a vida profissional diária de médicos e enfermeiros melhor, reduzindo sua papelada e trabalho administrativo. Estou muito animado para ver não apenas nossa empresa, mas outras empresas também começando a colocar IA generativa em sistemas de anotações clínicas, em sistemas de comunicação de pacientes [registro eletrônico de saúde]. É ótimo falar com médicos e enfermeiros e ouvi-los dizer: "Uau, isso está tornando mais fácil evitar levar trabalho para casa à noite".

Sobre suposições equivocadas sobre IA generativa

Os sistemas de IA generativa [que ajudam os usuários a gerar novos conteúdos com base em uma variedade de entradas] são mecanismos de raciocínio. Eles não são computadores no sentido tradicional. Em outras palavras, se você pensa em um computador como uma máquina que faz recuperação de memória perfeita e cálculo perfeito, essas coisas não são computadores. E, portanto, podemos ter problemas na prestação de cuidados de saúde se presumirmos que essas coisas são computadores e esses mal-entendidos podem levar a erros. Ethan Mollick, professor associado da Wharton School da Universidade da Pensilvânia, disse: "É quase melhor pensar no [ChatGPT] como uma pessoa, como um estagiário que trabalha para você" e não como um computador.

Sobre se assumimos muito ou pouco sobre o potencial da IA ​​na área da saúde

Um sistema de IA generativo como o GPT-4 é mais inteligente do que qualquer um que você já conheceu e mais burro do que qualquer um que você já conheceu. Acho que ambos presumimos muito e muito pouco sobre seu potencial na área da saúde. Se você é um médico e vê a apresentação inicial de um paciente, obtém os resultados iniciais dos testes de laboratório e, a partir deles, forma um diagnóstico diferencial. Você também pode pedir ao GPT-4 para analisar essa apresentação inicial e os laboratórios iniciais e pedir ao GPT-4 para produzir um diagnóstico diferencial, mas esse diagnóstico diferencial não deve ser automaticamente assumido como melhor do que aquele que você obteria de um ser humano. Portanto, há uma necessidade nessa situação de ter um humano no circuito para analisar os resultados e verificá-los.

Outra abordagem é fazer com que o médico ou enfermeiro humano forme seu próprio diagnóstico diferencial e então o dê ao GPT-4 e diga: "Aqui está o que estou pensando. Você pode olhar para isso e criticar?" Embora um sistema de IA generativo como o GPT-4, em alguns aspectos, não seja tão bom quanto os seres humanos na geração de conteúdo, estamos descobrindo que ele pode ser bom para crítica, melhoria ou resumo.

O GPT-4 tem vieses assim como os seres humanos, mas é incrivelmente bom em detectar vieses em coisas que lê ou em decisões que outros sistemas de IA ou seres humanos tomam. Então, você vê essa dicotomia onde ele pode ser bom em algumas coisas, mas ainda assim falho. Gosto de pensar no GPT-4 como uma ferramenta que amplifica nossa própria inteligência. Ele nos ajuda a melhorar as coisas em que somos bons, mas também pode exibir algumas de nossas mesmas falhas. Entender os meandros dessas dicotomias agora é muito importante.

Sobre o uso de IA generativa para comunicar com empatia

[Minha equipe e eu] tivemos acesso antecipado ao GPT-4 no final do verão de 2022. Estávamos investigando as potenciais aplicações e impactos, tanto positivos quanto negativos, que o GPT-4 poderia ter na medicina e na assistência médica. No início, nos concentramos em determinar o quão inteligente essa coisa poderia ser. Nós o víamos como um bot de conhecimento médico. Ele poderia passar no exame de licenciamento médico dos EUA? Ele poderia passar no exame NCLEX-RN (National Council Licensure Examination for Registered Nurses)? Ele poderia ler, revisar e responder perguntas sobre um artigo de pesquisa médica?

Mais tarde, em novembro de 2022, a OpenAI lançou o ChatGPT usando um modelo de IA anterior e menor chamado GPT-3.5. Nossos laboratórios de pesquisa começaram a receber e-mails de médicos e enfermeiros do mundo todo dizendo: "Isso é ótimo. Estamos usando para escrever resumos pós-consulta e nossos pacientes realmente gostam". Isso foi inesperado. Desde então, aprendemos que como interagir com os pacientes é um dos maiores desafios diários que os clínicos e administradores enfrentam.

Um dos meus colegas tinha uma amiga que infelizmente foi diagnosticada com câncer de pâncreas em estágio avançado. Sabendo de seu relacionamento pessoal com essa paciente, o especialista pediu para minha colega conversar com ela sobre suas opções de tratamento. Meu colega realmente lutou enquanto explicava para GPT-4, "Aqui está a situação. Não sei o que dizer a ela."

O conselho concreto sobre como abordar a situação foi notável. E então, no final da conversa, meu colega disse ao GPT-4: "Obrigado por este conselho. É muito útil." E o GPT-4 respondeu: "De nada, mas e você? Você está recebendo tudo o que precisa? Como você está se sentindo e se segurando nisso?"

Desde então, vários centros médicos acadêmicos fizeram pesquisas sobre [empatia e GPT-4]. Um artigo no JAMA Internal Medicine mediu o quão empáticas e tecnicamente corretas eram as respostas do GPT-4 em resposta às perguntas dos pacientes. Eles descobriram que o GPT-4 é quase tão correto quanto as respostas de um médico humano, mas por um fator de quase 10 para um, as respostas do GPT-4 foram consideradas mais empáticas . Também houve estudos iniciais comparando notas de autoria do GPT-4 com [comunicações aos pacientes] de médicos. A resposta predominante foi que as notas do GPT-4 são mais "humanas". Agora, é claro, sabemos que elas não são mais humanas. O que está acontecendo é que um médico ou enfermeiro está ocupado e tão sobrecarregado com o trabalho que eles simplesmente têm que explodir essas comunicações, enquanto o GPT-4 pode reservar um tempo para adicionar aqueles toques pessoais extras — "Parabéns por se tornar avô no mês passado" ou "Melhores votos no seu casamento no mês que vem" — que são tão valorizados na prestação de cuidados de saúde. Há um ano, nunca imaginamos que isso seria um uso de IA generativa.

Sobre questões de preconceito e desigualdade

Falando como tecnólogo, nosso sonho é que colocaríamos as melhores e mais poderosas informações médicas do mundo nas mãos de todos igualmente e que isso permitiria que nosso mundo e nossa sociedade dessem um grande passo em direção a um acesso mais equitativo aos cuidados de saúde. No entanto, percebi que usar a tecnologia para abordar a questão da equidade na saúde não será tão fácil. A tecnologia não é uma bala de prata. Esses sistemas exibem vieses. A questão é se podemos reparar e consertar esses vieses. Minha opinião é que esses sistemas são reflexos dos humanos e que, portanto, são inerentemente tendenciosos, assim como nós. Mas acho esperançoso que, embora o GPT-4 exiba muitos vieses, ele também entenda o conceito de viés e entenda que vieses são prejudiciais. Por exemplo, se você apresentar a ele um cenário envolvendo consentimento médico informado e tomada de decisão tendenciosa, ele identifica de forma muito confiável os vieses exibidos pela IA ou pelos seres humanos. No final das contas, a IA é apenas uma ferramenta. Minha esperança é que ela possa se tornar uma ferramenta poderosa para combater preconceitos, injustiças e falta de equidade.

Sobre o uso de IA generativa para tornar uma situação desafiadora um pouco mais fácil

No início deste ano, meu pai faleceu após uma doença muito longa. Ele ficou doente por quase dois anos. Durante esse tempo, ele estava consultando um clínico geral e dois especialistas. Ele precisava da ajuda de mim e das minhas duas irmãs, mas todos nós morávamos a centenas de quilômetros de distância. Como acontece em muitas famílias, tivemos essa situação complexa que estávamos tentando resolver à distância. Nesse processo, as tensões aumentaram entre mim e minhas duas irmãs, e nossos relacionamentos começaram a se desgastar. Nós agendávamos aquela conversa telefônica de ouro de 15 minutos com um dos especialistas e brigávamos sobre a melhor forma de usar o tempo. Demos todos os resultados dos exames laboratoriais, notas, a lista de medicamentos e as últimas observações ao GPT-4, explicamos a situação e dissemos: "Vamos ter uma ligação telefônica de 15 minutos com o especialista. Qual seria a melhor maneira de usar esse tempo? Sobre o que devemos conversar? Quais são as melhores perguntas a serem feitas?" Isso baixou a temperatura e nos ajudou a sentir mais controle da situação.

Nota do editor: Esta entrevista foi editada por questões de tamanho e clareza.

Você também pode estar interessado em:

A geração atual de ferramentas de IA: três considerações para líderes de qualidade

The New York Times - Quando os médicos usam um chatbot para melhorar suas maneiras de lidar com os pacientes

Share