Green ghosted shapes image
Connaissances

Intelligence artificielle, confidentialité des données et comment assurer la sécurité des patients en ligne

Pourquoi c'est important


« Alors que nous évaluons les risques et les avantages de l’IA dans les soins de santé, nous devons élaborer des définitions et des attentes solides en matière de responsabilité et un cadre réfléchi sur la manière dont l’IA peut être utilisée pour répondre de manière sûre et efficace aux besoins de tous les utilisateurs. »

Lorsque nous pensons à l’expérience du patient, nous pensons généralement aux soins cliniques en personne. Cependant, il est important de se rappeler que le parcours du patient commence souvent à la maison, guidé par des sources d’information trouvées en ligne. En tant que spécialiste du marketing numérique et défenseur des patients en matière de santé mentale, j’observe l’évolution de ce nouveau monde en temps réel. Les services de santé mentale sont très demandés et l’intelligence artificielle (IA) est utilisée pour combler les lacunes en matière de soins.

Comme de nombreuses entreprises, les services de santé mentale virtuels collectent autant d’informations que possible pour faire de la publicité auprès de leur public cible. En mars 2023, Cerebral, un service de thérapie virtuelle, a révélé avoir partagé des informations de santé protégées de plus de 3 millions de clients avec des clients tiers tels que Facebook, TikTok, Google et d’autres plateformes en ligne. Ces données comprenaient des coordonnées, des dates de naissance, des numéros de sécurité sociale et des résultats d’évaluations de santé mentale. Une autre entreprise, BetterHelp, a conclu un accord avec la Federal Trade Commission des États-Unis pour une violation similaire.

Quelles en ont été les conséquences ? Pour moi, cela s’est traduit par des publicités spécifiques et dérangeantes diffusées sur mes comptes de réseaux sociaux. Comme j’utilisais un service de thérapie virtuelle qui divulguait des informations de santé protégées à des clients tiers sans autorisation, les annonceurs connaissaient mon âge et mon diagnostic, et les publicités générées par l’IA me promettaient des remèdes instantanés pour une maladie avec laquelle je vis depuis la majeure partie de ma vie.

Les publicités basées sur des informations médicales protégées exploitent les personnes vulnérables, les poussent à « acheter maintenant, avant que le prix n’augmente » et promettent des remèdes rapides. Les supports marketing font de vagues références à des traitements « appuyés par la recherche » sans citer d’études réelles. Les applications de désensibilisation et de retraitement par les mouvements oculaires (EMDR) en libre-service promettent d’être aussi efficaces pour traiter le SSPT que l’aide d’un professionnel. J’ai la chance d’avoir de solides compétences en matière de santé et de culture numérique, mais sur les forums en ligne où je suis actif, je vois beaucoup de gens qui tombent dans le panneau de ces publicités.

La demande toujours croissante de soutien en matière de santé mentale

Le rapport sur l’état de la santé mentale en Amérique en 2023 met en lumière un besoin toujours croissant de services de santé mentale :

  • 21 % des adultes souffrent d’une maladie mentale, soit plus de 50 millions d’Américains.
  • 55 % des adultes (28 millions) souffrant d’une maladie mentale ne reçoivent aucun traitement.
  • 11 pour cent (5,5 millions) des personnes atteintes d’une maladie mentale n’ont pas d’assurance maladie.
  • Pour 23 % des adultes souffrant d’une maladie mentale, les coûts les empêchent de demander des soins.
  • 11 % des adultes qui s’identifient à deux races ou plus ont déclaré avoir de sérieuses pensées suicidaires.
  • Aux États-Unis, il y a 350 personnes pour chaque prestataire de soins de santé mentale.

De nombreux membres des forums en ligne fréquentés par la communauté de la santé mentale aux États-Unis expriment une frustration considérable face à leur manque d’accès à la thérapie ou une insatisfaction quant à l’aide qu’ils peuvent obtenir. Certains se sont tournés vers l’IA comme thérapeute, se dévouant à Google Bard et ChatGPT, sans se laisser décourager par le fait que ce qu’ils saisissent aboutit dans un lac de données massif qui sera utilisé de manière inconnue par la suite.

Certains services de santé mentale utilisent l’IA pour discuter avec les patients qui cherchent de l’aide. Fin 2022, l’un d’eux a lancé un programme pilote sans préciser que les patients interagissaient avec des robots. Le consentement éclairé de l’entreprise n’était pas clairement défini, et les personnes qui ont finalement appris qu’elles ne recevaient pas de soins d’un humain ont perdu confiance dans les séances. Après que l’entreprise, appelée Koko, a rendu publique cette expérience , des débats houleux ont eu lieu sur les réseaux sociaux. L’entreprise a fait valoir que ses services ne devraient pas nécessiter l’examen d’un comité d’examen institutionnel car, entre autres, elle n’avait pas l’intention de publier ses conclusions. D’autres ont fait valoir qu’un comité d’examen institutionnel aurait dû être impliqué car les recherches de Koko portaient sur des sujets humains. Les détracteurs ont également fait part de leurs inquiétudes quant au manque d’empathie et de nuance de l’IA et aux risques potentiellement importants pour les patients en crise.

Les aspects positifs de l’IA dans le domaine de la santé mentale

La même entreprise qui utilisait des robots pour parler aux patients s’est associée à des sociétés de réseaux sociaux pour surveiller le contenu. Son système comprend le langage codé – comme « su1c1d3 » au lieu de « suicide » – et contacte les personnes qui publient des messages au contenu sensible, vérifie si elles sont en détresse et propose de les mettre en contact avec des ressources pour obtenir de l’aide.

Après avoir partagé un article sur ce que j'avais appris sur mon diagnostic, l'un des robots de cette entreprise m'a contacté et m'a demandé si je traversais une crise. Il me contactait tous les deux ou trois jours pour savoir si j'avais besoin de parler à quelqu'un. Même si je n'avais pas besoin d'aide à ce moment-là, j'ai apprécié de voir le message, d'autant plus que j'étais sur une plateforme populaire auprès des communautés marginalisées qui subissent fréquemment des brimades et des discriminations.

Pour évaluer les risques et les avantages de l’IA dans le domaine de la santé, nous devons établir des définitions et des attentes solides en matière de responsabilité, ainsi qu’un cadre réfléchi sur la manière dont l’IA peut être utilisée pour répondre de manière sûre et efficace aux besoins de tous les utilisateurs. Ce processus doit accueillir toutes les communautés dans le développement et la gestion de ces services. Les facteurs suivants contribueront à garantir une expérience sûre pour les patients :

  1. Déterminer les définitions et les rôles en matière de responsabilité en matière de conformité, de reporting, de surveillance et d’application de la loi.
  2. Impliquer un large éventail de perspectives et de parties prenantes dans l’évaluation et la gestion des risques (3)
  3. Adhérer à un cadre construit sur un objectif de confiance .
  4. Protégez les utilisateurs des systèmes dangereux ou inefficaces.
  5. Concevoir des algorithmes de manière équitable pour prévenir la discrimination.
  6. Assurez la confidentialité des données et intégrez des protections contre les abus potentiels.
  7. Rendre le processus de consentement éclairé suffisamment transparent pour que les patients comprennent quand ils interagissent avec l’IA et ses risques.
  8. Des options de retrait et un accès à l’assistance humaine devraient être disponibles pour ceux qui le souhaitent.

Alors que des millions de personnes ont besoin d’aide pour leur santé mentale, il est possible de faire de l’IA un outil efficace et créatif, mais nous devons procéder avec prudence. Alors que les fonds d’investissement et les géants de la technologie investissent massivement dans de nouvelles applications qui peuvent être porteuses de promesses, les garde-fous et les politiques de sécurité ne peuvent pas être une préoccupation secondaire. La participation active des patients souffrant de troubles mentaux sera essentielle pour façonner les services destinés à les aider.

Lee Frost est responsable des opérations marketing et défenseur des patients IHI .

Vous pourriez également être intéressé par :

L'intelligence artificielle dans les soins de santé : Peter Lee sur l'empathie, l'autonomisation et l'équité

La génération actuelle d’outils d’IA : trois considérations pour les responsables de la qualité

Share