La génération actuelle d’outils d’IA : trois considérations pour les responsables de la qualité
Pourquoi c'est important
Les produits d’intelligence artificielle (IA) générative qui ont évolué depuis le lancement public de ChatGPT pourraient changer la donne pour les équipes de qualité des soins de santé, mais les organisations doivent soigneusement examiner les coûts et les avantages de leur utilisation.
Dans un avenir pas si lointain, la journée de travail d’un professionnel de l’amélioration de la qualité pourrait ressembler à ceci :
Matinée : Vous vous préparez à une réunion avec votre responsable qualité pour discuter des PDSA en cours de votre équipe. Votre « assistant » d'intelligence artificielle générative (IA) sécurisée recherche dans vos fichiers et votre boîte de réception des informations pertinentes et crée un résumé de 300 mots. Vous réalisez que vous n'avez pas mis à jour vos graphiques d'exécution avec les données des deux dernières semaines, vous fournissez donc les données à l'outil d'IA et lui demandez de générer un graphique d'exécution mis à jour. Vous disposez désormais de toutes les informations dont vous avez besoin pour faire une présentation succincte.
Midi : Cinq nouvelles directives cliniques pour les services à volume élevé de votre hôpital ont été publiées. (Le processus d’élaboration et de mise en œuvre des directives – de l’examen des données probantes à l’approbation – prenait auparavant au moins un an, mais il ne prend désormais que quelques semaines, car les concepteurs de directives utilisent l’IA pour soutenir la recherche de base et l’analyse des données.) Vous rencontrez les responsables cliniques pour élaborer une stratégie visant à intégrer ces nouvelles directives dans la pratique. L’outil d’IA que vous consultez recommande de petits tests de changement et une stratégie de mesure pour évaluer les progrès. Tous les participants à la réunion contribuent pleinement à la discussion. L’IA retranscrit et résume la réunion et distribue le compte rendu.
Après-midi : Vous devez analyser les résultats des séances de coaching en gestion de la qualité que votre équipe a menées avec les équipes cliniques au cours de l'année écoulée. Vous utilisez un outil d'IA pour examiner les transcriptions des quelque 500 séances. L'outil utilise des cadres préexistants pour identifier les lacunes dans les séances de coaching et les thèmes issus des commentaires des participants. Vous lui demandez ensuite de rédiger un résumé de 500 mots de l'analyse et d'élaborer le plan d'une présentation de 10 minutes pour la réunion de demain avec votre équipe qualité.
Apprenez-en plus sur l'intelligence artificielle au IHI Forum
Nous pensons que ce scénario basé sur l’IA représente l’avenir probable du travail d’amélioration de la qualité. Au cours d’un projet d’innovation de 90 jours, une équipe de recherche de Institute for Healthcare Improvement (IHI) a conclu que toute la technologie nécessaire pour réaliser ces activités existe déjà. Les produits d’IA générative qui ont évolué depuis le lancement public de ChatGPT en novembre 2022 pourraient changer la donne pour les équipes de qualité des soins de santé, mais les organisations doivent examiner attentivement les coûts et les avantages de leur utilisation. Nous sommes arrivés à trois concepts clés au cours du cycle d’innovation que nous partageons ci-dessous.
Qu'est-ce que l'IA générative ?
Les outils d’IA générative se distinguent des technologies précédentes par leur capacité à générer du nouveau contenu. En d’autres termes, les outils prennent du contenu existant et peuvent répondre à des questions (en paragraphes), ainsi qu’analyser des données et fournir des recommandations et des conclusions. Les grands modèles linguistiques tels que ChatGPT, Bard de Google, Claude et Microsoft Bing ont attiré des millions d’utilisateurs ces derniers mois tout en suscitant la controverse. Pour former de grands modèles linguistiques, les développeurs ont utilisé de grandes quantités de contenu existant – principalement provenant d’Internet – pour traiter et générer du nouveau contenu. En réponse à une requête, ils peuvent fournir des réponses et orienter les utilisateurs vers des informations existantes et potentiellement utiles.
L'IA générative peut prendre en charge la plupart des modalités d'amélioration de la qualité, y compris l'enseignement
Bien que nos recherches suggèrent que la plupart des praticiens n’en sont qu’aux premières phases de l’utilisation des outils d’IA pour le travail d’amélioration de la qualité, ces technologies vont probablement considérablement s’améliorer au fil du temps et changer la façon dont nous pratiquons l’amélioration de la qualité dans les années à venir. Nous pouvons déjà utiliser des outils d’IA pour créer la plupart des supports d’amélioration de la qualité . Nos recherches ont révélé que les grands modèles de langage (comme ChatGPT) peuvent aider les utilisateurs avertis à créer des graphiques d’exécution et de contrôle, à identifier des idées de changement, à élaborer des diagrammes de cause à effet et à rédiger des diagrammes de moteurs.
Les outils d’IA peuvent également aider à enseigner les concepts d’amélioration de la qualité . Par exemple, ils peuvent proposer des explications d’idées complexes adaptées à un public spécifique. Les outils d’IA peuvent élaborer des plans de cours, des schémas de cours, des brise-glaces et bien plus encore. Certains spécialistes de la qualité ont commencé à utiliser des outils d’IA pour visualiser les données et s’attaquer à des questions de base sur l’amélioration de la qualité, comme générer un ensemble préliminaire d’idées de changement ou produire une explication en langage clair d’un concept d’amélioration de la qualité.
L’IA est sujette aux erreurs et comporte des risques
L’utilisation de l’IA comporte des risques juridiques et éthiques. Par exemple, de nombreux litiges ont été intentés pour contester la légalité de l’utilisation d’œuvres protégées par le droit d’auteur sans autorisation pour former de grands modèles linguistiques. L’IA pourrait également compromettre la confidentialité de vos patients ou de votre organisation. Il n’est pas permis de partager des informations de santé protégées avec un modèle accessible au public comme ChatGPT, car toute entrée de données devient la propriété de l’entreprise propriétaire de l’outil. De même, si vous partagez, par exemple, des données organisationnelles d’importance stratégique avec l’outil, vous risquez de voir ces informations réutilisées de manière inattendue et indésirable. Avant d’utiliser un outil basé sur l’IA pour soutenir votre travail, il est important de consulter vos politiques informatiques et vos équipes chargées de la confidentialité des données ou du droit.
La précision est également une préoccupation majeure des outils d’IA actuels. Par exemple, ChatGPT-3.5, la version disponible gratuitement, ne dispose de données que jusqu’en janvier 2022 ; elle est déjà obsolète. Les modèles d’IA sont également connus pour « halluciner » – pour inventer des informations plausibles en réponse à une invite. De plus, les modèles basés sur le langage ne fonctionnent pas de manière cohérente sur les tâches mathématiques (par exemple, ChatGPT s’est dégradé au fil du temps pour identifier les nombres premiers ).
En outre, les modèles d’IA posent des problèmes d’équité, étant donné qu’ils sont formés sur de grands ensembles de données susceptibles de refléter les préjugés de la société dans son ensemble. Bien que des outils majeurs comme ChatGPT mettent en place des mesures de protection – comme l’apprentissage par renforcement avec rétroaction humaine (RLHF) qui fait appel à des superviseurs humains pour former les modèles et les éloigner des résultats inappropriés – ils peuvent néanmoins être insuffisants et produire du contenu qui pourrait être offensant ou biaisé.
On ne sait pas encore quel impact ces outils d’IA auront sur le personnel chargé de la qualité et de la sécurité. Jusqu’à présent, les utilisateurs les plus performants ont déployé ces outils pour compléter et étendre leur travail. Ces outils ne sont pas suffisamment matures pour remplacer complètement un flux de travail spécifique dans la journée typique d’un responsable QI.
Recommandations
Nous recommandons aux dirigeants d’envisager les mesures suivantes pour répondre à l’intérêt croissant – et aux risques évidents – liés à l’utilisation des outils d’IA :
- Convoquer des groupes multidisciplinaires (comprenant des représentants d’experts juridiques, informatiques, cliniques, de qualité et de recherche) pour élaborer des politiques de gouvernance et d’utilisation acceptables spécifiques pour les nouveaux outils d’IA de type modèle de langage volumineux. Par exemple, de nombreuses organisations autoriseront uniquement le personnel à utiliser les versions « d’entreprise » des outils (conçues pour une utilisation commerciale ou gouvernementale sécurisée) pour les tâches liées au travail.
- Formez le personnel sur les politiques d’utilisation acceptables de votre organisation.
- Formez le personnel à l’utilisation de l’IA générative grâce à l’« ingénierie des invites ». Les résultats de ces outils ne sont bons que si leurs entrées sont bonnes, et les « invites » font référence aux questions ou instructions textuelles saisies dans le système pour obtenir les résultats souhaités. De nombreuses ressources sont mises en ligne pour aider les utilisateurs à poser les bonnes questions.
- Recueillez les commentaires des employés sur l’IA. Demandez-leur comment ils l’utilisent déjà. Demandez-leur pourquoi ils sont enthousiastes ou pourquoi ils ont des réserves.
- Aidez les employés à intégrer l’IA dans leur travail actuel en étant conscients des effets d’entraînement possibles, notamment de la manière dont elle pourrait améliorer la productivité, modifier les tâches quotidiennes et modifier les responsabilités des employés. Pour introduire l’IA dans le travail quotidien, les dirigeants et les employés devront faire preuve d’agilité, car les technologies disponibles évoluent rapidement et de nouveaux outils sont introduits à un rythme soutenu.
Marina Renton, MPhil, est chercheuse associée à IHI , Innovation et conception. Pierre M. Barker, MD, MBChB, est directeur scientifique de l'IHI, Institute for Healthcare Improvement. Gareth S. Kantor, MD, est consultant clinique, Insight Actuaries & Consultants. Jeffrey Rakover, MPP, est directeur de l'innovation et de la conception à IHI . Pour en savoir plus, assistez à la session A24 « When AI Meets QI » au IHI Forum (du 10 au 13 décembre 2023).
Podcast sur l'IA au quotidien : comment l'IA transforme les essais cliniques en connaissances médicales