Image
The Current Generation of AI Tools
رؤى

الجيل الحالي من أدوات الذكاء الاصطناعي: ثلاثة اعتبارات لقادة الجودة

لماذا هذا مهم؟

إن منتجات الذكاء الاصطناعي التوليدي التي تطورت منذ الظهور العام لـ ChatGPT قد تكون بمثابة تغيير جذري لفرق جودة الرعاية الصحية، ولكن المنظمات تحتاج إلى النظر بعناية في التكاليف والفوائد المترتبة على استخدامها.

في المستقبل غير البعيد، قد يبدو يوم العمل لمحترف تحسين الجودة كالتالي:

الصباح: تستعد لاجتماع مع مسؤول الجودة الرئيسي لمناقشة عمليات تقييم الأداء الجارية لفريقك. يبحث "مساعدك" المولد الآمن للذكاء الاصطناعي في ملفاتك وصندوق الوارد عن المعلومات ذات الصلة وينشئ ملخصًا من 300 كلمة. تدرك أنك لم تقم بتحديث مخططات التشغيل الخاصة بك ببيانات من الأسبوعين الماضيين، لذا تقدم البيانات إلى أداة الذكاء الاصطناعي وتطلب منها إنشاء مخطط تشغيل محدث. لديك الآن كل المعلومات التي تحتاجها لإعداد عرض تقديمي موجز.

منتصف النهار: تم نشر خمسة إرشادات سريرية جديدة للخدمات عالية الحجم في مستشفاك. (كانت عملية تطوير الإرشادات وتنفيذها - من مراجعة الأدلة إلى الموافقة - تستغرق عامًا على الأقل، لكنها الآن لا تستغرق سوى بضعة أسابيع لأن مطوري الإرشادات يستخدمون الذكاء الاصطناعي لدعم البحث في الخلفية وتحليل البيانات.) تلتقي بقادة سريريين لوضع استراتيجية لدمج هذه الإرشادات الجديدة في الممارسة. توصي أداة الذكاء الاصطناعي التي تستشيرها بإجراء اختبارات صغيرة للتغيير واستراتيجية قياس لتقييم التقدم. يساهم الجميع في الاجتماع بشكل كامل في المناقشة. يقوم الذكاء الاصطناعي بنسخ الاجتماع وتلخيصه وتوزيع المحاضر.

بعد الظهر: تحتاج إلى تحليل نتائج جلسات التدريب على إدارة الجودة التي قادها فريقك مع الفرق السريرية على مدار العام الماضي. يمكنك استخدام أداة الذكاء الاصطناعي لمراجعة نصوص ما يقرب من 500 جلسة. تستخدم الأداة أطرًا موجودة مسبقًا لتحديد الثغرات في جلسات التدريب والموضوعات من تعليقات المشاركين. ثم تطلب منها كتابة ملخص من 500 كلمة للتحليل وبناء مخطط عرض تقديمي مدته 10 دقائق لاجتماع الغد مع فريق الجودة الخاص بك.


تعرف على المزيد حول الذكاء الاصطناعي في IHI Forum


نعتقد أن هذا السيناريو المدعوم بالذكاء الاصطناعي يمثل المستقبل المحتمل لعمل تحسين الجودة. على مدار مشروع ابتكار مدته 90 يومًا، خلص فريق بحثي من Institute for Healthcare Improvement (IHI) إلى أن جميع التكنولوجيا اللازمة لأداء هذه الأنشطة موجودة بالفعل. قد تكون منتجات الذكاء الاصطناعي التوليدية التي تطورت منذ الظهور العام لـ ChatGPT في نوفمبر 2022 بمثابة تغيير لقواعد اللعبة لفرق جودة الرعاية الصحية، ولكن تحتاج المنظمات إلى النظر بعناية في تكاليف وفوائد استخدامها. لقد توصلنا إلى ثلاثة مفاهيم رئيسية خلال دورة الابتكار التي نشاركها أدناه.

ما هو الذكاء الاصطناعي التوليدي؟

تختلف أدوات الذكاء الاصطناعي التوليدي عن التكنولوجيا السابقة في قدرتها على توليد محتوى جديد. بعبارة أخرى، تأخذ الأدوات المحتوى الموجود ويمكنها الإجابة على الأسئلة (في فقرات)، فضلاً عن تحليل البيانات وتقديم التوصيات والاستنتاجات. اجتذبت نماذج اللغة الكبيرة مثل ChatGPT وGoogle's Bard وClaude وMicrosoft Bing ملايين المستخدمين في الأشهر الأخيرة بينما أثارت الجدل أيضًا. لتدريب نماذج اللغة الكبيرة، استخدم المطورون كميات هائلة من المحتوى الموجود - بشكل أساسي من الإنترنت - لمعالجة وإنشاء محتوى جديد. ردًا على استعلام، يمكنهم تقديم إجابات وتوجيه المستخدمين إلى معلومات موجودة ومفيدة محتملة.

يمكن للذكاء الاصطناعي التوليدي دعم معظم أشكال تحسين الجودة، بما في ذلك التدريس

في حين اقترح بحثنا أن معظم الممارسين ما زالوا في المراحل الأولى من استخدام أدوات الذكاء الاصطناعي لأعمال تحسين الجودة، فمن المرجح أن تتحسن هذه التقنيات بشكل كبير بمرور الوقت وتغير الطريقة التي نمارس بها تحسين الجودة في السنوات القادمة. يمكننا بالفعل استخدام أدوات الذكاء الاصطناعي لإنشاء معظم مواد تحسين الجودة . وجد بحثنا أن نماذج اللغة الكبيرة (مثل ChatGPT) يمكن أن تساعد المستخدمين الأذكياء في بناء مخططات التشغيل والتحكم، وتحديد أفكار التغيير، وصياغة مخططات السبب والنتيجة، ورسم مخططات الدوافع.

يمكن أن تساعد أدوات الذكاء الاصطناعي أيضًا في تدريس مفاهيم تحسين الجودة . على سبيل المثال، يمكنها تقديم تفسيرات لأفكار معقدة مصممة خصيصًا لجمهور معين. يمكن لأدوات الذكاء الاصطناعي صياغة خطط الدروس ومخططات الدورات التدريبية وكاسحات الجليد وغير ذلك الكثير. بدأ بعض المتخصصين في الجودة في استخدام أدوات الذكاء الاصطناعي لتصور البيانات ومعالجة أسئلة تحسين الجودة الأساسية، مثل إنشاء مجموعة أولية من أفكار التغيير أو إنتاج شرح بلغة بسيطة لمفهوم تحسين الجودة.

الذكاء الاصطناعي عرضة للخطأ ومحفوف بالمخاطر

إن استخدام الذكاء الاصطناعي ينطوي على مخاطر قانونية وأخلاقية. على سبيل المثال، كانت هناك حملة من الدعاوى القضائية التي تتساءل عما إذا كان من القانوني استخدام أعمال محمية بحقوق الطبع والنشر دون إذن لتدريب نماذج لغوية كبيرة. كما يمكن للذكاء الاصطناعي المساس بخصوصية مرضاك أو مؤسستك. لا يجوز مشاركة المعلومات الصحية المحمية مع نموذج يمكن الوصول إليه علنًا مثل ChatGPT لأن أي إدخال للبيانات يصبح ملكًا للشركة التي تمتلك الأداة. وبالمثل، إذا قمت بمشاركة بيانات تنظيمية مهمة استراتيجيًا مع الأداة، على سبيل المثال، فقد تجد أن المعلومات يتم إعادة استخدامها بطرق غير متوقعة وغير مرغوب فيها. قبل استخدام أي أداة تعمل بالذكاء الاصطناعي لدعم عملك، من المهم استشارة سياسات تكنولوجيا المعلومات وخصوصية البيانات أو الفرق القانونية.

الدقة هي أيضًا مصدر قلق كبير فيما يتعلق بأدوات الذكاء الاصطناعي الحالية. على سبيل المثال، لا يحتوي ChatGPT-3.5، الإصدار المتاح مجانًا، على بيانات حتى يناير 2022 فقط؛ لقد أصبح قديمًا بالفعل. ومن المعروف أيضًا أن نماذج الذكاء الاصطناعي " تهلوس " - لتكوين معلومات تبدو معقولة استجابةً لمطالبة. بالإضافة إلى ذلك، لا تعمل النماذج القائمة على اللغة بشكل متسق في المهام الرياضية (على سبيل المثال، أصبح ChatGPT أسوأ بمرور الوقت في تحديد الأعداد الأولية ).

بالإضافة إلى ذلك، تثير نماذج الذكاء الاصطناعي مخاوف تتعلق بالمساواة، نظرًا لتدريبها على مجموعات بيانات ضخمة من المرجح أن تعكس تحيزات المجتمع ككل. وفي حين تضع أدوات رئيسية مثل ChatGPT ضمانات ــ مثل التعلم المعزز مع ردود الفعل البشرية (RLHF) الذي يستخدم المشرفين البشريين لتدريب النماذج وتوجيهها بعيدًا عن النتائج غير المناسبة ــ فإنها لا تزال قد تفشل وتنتج محتوى قد يكون مسيئًا أو متحيزًا.

من غير الواضح ما هو التأثير الذي ستخلفه أدوات الذكاء الاصطناعي هذه على القوى العاملة في مجال الجودة والسلامة. وحتى الآن، استخدم المستخدمون الأكثر نجاحًا الأدوات لاستكمال وتوسيع نطاق عملهم. لكن الأدوات ليست ناضجة بما يكفي لتحل محل أي سير عمل محدد في يوم عمل مدير تحسين الجودة النموذجي.

التوصيات

نوصي القادة بالتفكير في الإجراءات التالية للاستجابة للاهتمام المتزايد - والمخاطر الواضحة - لاستخدام أدوات الذكاء الاصطناعي:

  • عقد مجموعات متعددة التخصصات (بما في ذلك ممثلون يتمتعون بخبرة قانونية وتقنية معلومات وإكلينيكية وجودة وبحثية) لتطوير سياسات محددة للحوكمة والاستخدام المقبول لأدوات الذكاء الاصطناعي الجديدة التي تعتمد على نموذج اللغة الكبيرة. على سبيل المثال، لن تسمح العديد من المنظمات للموظفين باستخدام إصدارات "المؤسسات" من الأدوات (المصممة للاستخدام الآمن في الأعمال أو الحكومة) إلا للمهام المتعلقة بالعمل.
  • قم بتدريب الموظفين على سياسات الاستخدام المقبولة في مؤسستك.
  • تدريب الموظفين على كيفية استخدام الذكاء الاصطناعي التوليدي من خلال "الهندسة الموجهة". إن مخرجات هذه الأدوات لا تكون جيدة إلا بقدر المدخلات، وتشير "الهندسة الموجهة" إلى الأسئلة النصية أو التعليمات المدخلة في النظام للحصول على النتائج المرجوة. وهناك العديد من الموارد المتاحة على الإنترنت لمساعدة المستخدمين على طرح الأسئلة الصحيحة.
  • اجمع آراء الموظفين حول الذكاء الاصطناعي. اسألهم عن كيفية استخدامهم له بالفعل. استفسر عن سبب حماسهم له أو سبب تحفظاتهم عليه.
  • إن دمج الذكاء الاصطناعي في العمل اليومي يتطلب من القادة والموظفين أن يكونوا أكثر مرونة، لأن التكنولوجيات المتاحة تتغير بسرعة، ويتم تقديم أدوات جديدة بوتيرة سريعة.

مارينا رينتون، ماجستير في الفلسفة، هي باحثة مشاركة في IHI ، والابتكار والتصميم. بيير إم. باركر، دكتور في الطب، بكالوريوس في الطب والجراحة، هو كبير مسؤولي العلوم في معهد تحسين الرعاية الصحية، Institute for Healthcare Improvement. جاريث إس. كانتور، دكتور في الطب، هو مستشار سريري في Insight Actuaries & Consultants. جيفري راكوفير، ماجستير في السياسة العامة، هو مدير IHI ، والابتكار والتصميم. لمعرفة المزيد، حضر الجلسة A24 "عندما يلتقي الذكاء الاصطناعي مع تحسين الجودة" في IHI Forum (10-13 ديسمبر 2023).

الذكاء الاصطناعي في الرعاية الصحية: بيتر لي يتحدث عن التعاطف والتمكين والمساواة

بودكاست الذكاء الاصطناعي اليومي: كيف يحول الذكاء الاصطناعي التجارب السريرية إلى معرفة طبية

Share